997 resultados para automatisierte Planung
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.
Resumo:
In the process of urbanization, natural and semi-natural landscapes are increasingly cherished as open space and recreational resource. Urban rivers are part of this kind of resource and thus play an important role in managing urban resilience and health. Employing the example of Tianjin, this doctoral dissertation research aims at learning to understand how to plan and design for the interface zones between urban water courses and for the land areas adjacent to such water courses. This research also aims at learning how to link waterfront space with other urban space in order to make a recreational space system for the benefit of people. Five questions of this dissertation are: 1) what is the role of rivers in spatial and open space planning? 2) What are the human needs regarding outdoor open space? 3) How do river and water front spatial structures affect people's recreational activities? 4) How to define the recreational service of urban river and waterfront open space? 5) How might answering these question change planning and design of urban open space? Quantitative and qualitative empirical approaches were combined in this study for which literature review and theoretical explorations provide the basis. Empirical investigations were conducted in the city of Tianjin. The quantitative approach includes conducting 267 quantitative interviews, and the qualitative approach includes carrying out field observations and mappings. GIS served to support analysis and visualization of empirical information that was generated through this study. By responding to the five research questions, findings and lessons include the following: 1) In the course of time rivers have gained importance in all levels and scales of spatial planning and decision making. Regarding the development of ecological networks, mainly at national scale, rivers are considered significant linear elements. Regarding regional and comprehensive development, river basins and watersheds are often considered as the structural link for strategic ecological, economic, social and recreational planning. For purposes of urban planning, particularly regarding recreational services in cities, the distribution of urban open spaces often follows the structure of river systems. 2) For the purpose of classifying human recreational needs that relate to outdoor open space Maslow's hierarchy of human needs serves as theoretical basis. The classes include geographical, safety, physiological, social and aesthetic need. These classes serve as references while analyzing river and waterfront open space and other kinds of open space. 3) Regarding the question how river and waterfront spatial structures might affect people's recreational activities, eight different landscape units were identified and compared in the case study area. Considering the thermal conditions of Tianjin, one of these landscape units was identified as affording the optimal spatial arrangement which mostly meets recreational needs. The size and the shape of open space, and the plants present in an open space have been observed as being most relevant regarding recreational activities. 4) Regarding the recreational service of urban river and waterfront open space the results of this research suggest that the recreational service is felt less intensively as the distances between water 183 front and open space user’s places of residence are increasing. As a method for estimating this ‘Service Distance Effect’ the following formula may be used: Y = a*ebx. In this equation Y means the ‘Service Distance’ between homes and open space, and X means the percentage of the people who live within this service distance. Coefficient "a" represents the distance of the residential area nearest to the water front. The coefficient "b" is a comprehensive capability index that refers to the size of the available and suitable recreational area. 5) Answers found to the questions above have implications for the planning and design of urban open space. The results from the quantitative study of recreational services of waterfront open space were applied to the assessment of river-based open space systems. It is recommended that such assessments might be done employing the network analysis function available with any GIS. In addition, several practical planning and designing suggestions are made that would help remedy any insufficient base for satisfying recreational needs. The understanding of recreational need is considered helpful for the proposing planning and designing ideas and for the changing of urban landscapes. In the course of time Tianjin's urban water system has shrunk considerably. At the same time rivers and water courses have shaped Tianjin's urban structure in noticeable ways. In the process of urbanization water has become increasingly important to the citizens and their everyday recreations. Much needs to be changed in order to improve recreational opportunities and to better provide for a livable city, most importantly when considering the increasing number of old people. Suggestions made that are based on results of this study, might be implemented in Tianjin. They are 1) to promote the quality of the waterfront open space and to make all linear waterfront area accessible recreational spaces. Then, 2), it is advisable to advocate the concept of green streets and to combine green streets with river open space in order to form an everyday recreational network. And 3) any sound urban everyday recreational service made cannot rely on only urban rivers; the whole urban structure needs to be improved, including adding small open space and optimize the form of urban communities, finally producing a multi-functional urban recreational network.
Resumo:
In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.
Resumo:
Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.
Resumo:
Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.
Resumo:
Es wird aufgezeigt, welchen Stellenwert der Sport in der heutigen Gesellschaft einnimmt und welche Förderungsmöglichkeiten auf den verschiedenen politischen Ebenen gegeben sind. Auf dieser Grundlange werden die prozessbegleitende Novellierung und die kooperative Planungsarbeit zur zukunftsorientierten Anwendbarkeit der Sportförderrichtlinien der Stadt Kassel anhand der Ziel- und Handlungsempfehlungen der Sportentwicklungsplanung näher beleuchtet. Um zu dem Thema der Sportförderung und insbesondere zur Sportförderrichtlinie hinzuführen, wird in Kapitel 2 dieser Arbeit zunächst der Wandel des Sportverständnisses dargestellt. Dabei wird einerseits auf die Sportbegeisterung der Menschen und auf den Strukturwandel eingegangen, andererseits auf die Möglichkeit, wie die Sportvereine und die kommerziellen Anbieter auf diese Veränderungen reagieren können. Das Kapitel 3 befasst sich mit dem Begriff der Sportförderung und zeigt im Anschluss daran die verschiedenen Steuerungsinstrumente im Bereich der Sportförderung auf. Schwerpunkt des Kapitels bilden die verschiedenen Förderinstrumente, welche sich auf Bundes- und Länderebene sowie auf kommunaler Ebene unterscheiden. Anschließend erfolgt ein Zwischenfazit, welches die Erkenntnisse der Sportförderung auf den verschiedenen politischen Ebenen zusammenfasst. In Kapitel 4 wird die Legitimation der Sportförderung in der BRD dargestellt. Diese Legitimation nimmt besonders unter der Prämisse der Haushaltskonsolidierung einen besonderen Stellenwert ein. Dabei wird eine ökonomische Argumentation, welche die Aspekte der externen Effekte, externen Kosten und das soziale Kapital aufgreift, angeführt. Im fünften Kapitel werden explizit die Steuerungsmöglichkeiten der Sportförderung auf kommunaler Ebene erläutert. Nach der allgemeinen Darstellung der Richtlinien zur Sportförderung wird Bezug auf die Stadt Kassel genommen. Das Kapitel 6 beschäftigt sich mit der Sportentwicklungsplanung ‒ insbesondere auf kommunaler Ebene. Berücksichtigt wird an dieser Stelle auch das kooperative Planungsverfahren. Wie sich die konkrete Zusammenarbeit der Stadt Kassel mit dem Institut für Kooperative Planung und Sportentwicklung vollzogen hat, wird in Kapitel 7 erläutert. Dieses Kapitel schließt mit den Empfehlungen ab. Kapitel 8 befasst sich mit der Novellierung der Sportförderrichtlinie der Stadt Kassel und ermöglicht einen Einblick in den Ablauf der einzelnen Planungsschritte. Die Arbeit führt in Kapitel 9 die möglichen Auswirkungen der Novellierung der Sportförderrichtlinie auf. Abgeschlossen wird die Arbeit in Kapitel 10 mit einem Fazit der durchgeführten Novellierung der Sportförderrichtlinien.
Resumo:
Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.
Resumo:
Im Rahmen dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum Phasen- und Grenzflächenverhalten von ternären Systemen des Typs Lösungsmittel/Fällungsmittel/Polymer durchgeführt. Diese Art der Mischungen ist vor allem für die Planung und Durchführung der Membranherstellung von Bedeutung, bei der die genaue Kenntnis des Phasendiagramms und der Grenzflächenspannung unabdingbar ist. Als Polymere dienten Polystyrol sowie Polydimethylsiloxan. Im Fall des Polystyrols kam Butanon-2 als Lösungsmittel zum Einsatz, wobei drei niedrigmolekulare lineare Alkohole als Fällungsmittel verwendet wurden. Für Polydimethylsiloxan eignen sich Toluol als Lösungsmittel und Ethanol als Fällungsmittel. Durch Lichtstreumessungen, Dampfdruckbestimmungen mittels Headspace-Gaschromatographie (VLE-Gleichgewichte) sowie Quellungsgleichgewichten lassen sich die thermodynamischen Eigenschaften der binären Subsysteme charakterisieren. Auf Grundlage der Flory-Huggins-Theorie kann das experimentell bestimmte Phasenverhalten (LLE-Gleichgewichte) in guter Übereinstimmung nach der Methode der Direktminimierung der Gibbs'schen Energie modelliert werden. Zieht man die Ergebnisse der Aktivitätsbestimmung von Dreikomponenten-Mischungen mit in Betracht, so ergeben sich systematische Abweichungen zwischen Experiment und Theorie. Sie können auf die Notwendigkeit ternärer Wechselwirkungsparameter zurückgeführt werden, die ebenfalls durch Modellierung zugänglich sind.Durch die aus den VLE- und LLE-Untersuchungen gewonnenen Ergebnissen kann die sog. Hump-Energie berechnet werden, die ein Maß für die Entmischungstendenz darstellt. Diese Größe eignet sich gut zur Beschreibung von Grenzflächenphänomenen mittels Skalengesetzen. Die für binäre Systeme gefundenen theoretisch fundierten Skalenparameter gelten jedoch nur teilweise. Ein neues Skalengesetz lässt erstmals eine Beschreibung über die gesamte Mischungslücke zu, wobei ein Parameter durch eine gemessene Grenzflächenspannung (zwischen Fällungsmittel/Polymer) ersetzt werden kann.
Resumo:
Die vorliegende Arbeit untersucht die Wohlfahrtswirkung und die Freizeitnutzung des öffentlichen Grüns durch die einheimische Bevölkerung in Mainz am Beispiel von Volkspark, Stadtpark und Hartenbergpark und formuliert relevante Folgerungen für die Planung zur Verbesserung des Freizeitwertes. Zunächst wurde der aktuelle Stellenwert des öffentlichen Grüns für die Freizeit analysiert. Dies erfolgte im Rahmen einer Umfrage mit geschlossenen Fragebögen. In Mainz besteht ein großer Bedarf an öffentlichem Grün. Die Grünausstattung wird von der Stadtbevölkerung nur zurückhaltend beurteilt. Einen besonderen Stellenwert für die Freizeit nehmen ausgedehnte Parkanlagen und Wälder ein; dies muss in der Freizeitplanung für Mainz berücksichtigt werden.Die Freizeitnutzung der Besucher der drei Parks wurde durch eine Fragebogenaktion direkt vor Ort ermittelt. Außerdem wurde an verschiedenen Tagen die Besucherfrequenz erhoben. Es wurde das Besucherverhalten bezüglich Verkehrsmittel, Entfernung des Wohnortes, Dauer und Häufigkeit der Besuche analysiert. Darüber hinaus wurde die Zufriedenheit der Besucher mit den Parks bezüglich verschiedener Einrichtungen und der Grüngestaltung untersucht.Die Besucherfrequenz wurde an drei verschiedenen Tagen von 9-19 Uhr in jedem der drei Parks erhoben. Mit Hilfe dieser Daten wurde die Anzahl der Besucher am Tage erhoben, und die Besuchergruppen bezüglich Alter und Gruppengröße erfasst.Im Unterschied zu früheren Studien anderer Parks benutzen immer mehr Besucher das Auto zum Erreichen des Parks, und immer weniger Besucher kommen zu Fuß. Nachmittags werden die Parks am stärksten frequentiert.Alle drei Parks werden überwiegend von Mainzern besucht. Der beachtliche Besucheranteil von außerhalb der Stadt Mainz in Volkspark und Stadtpark gegenüber dem Hartenbergpark weist auf die überregionale Bedeutung beider Parks hin. Aus den Ergebnissen wurden planungsrelevante Folgerungen für die Ausstattung abgeleitet. Verbesserungswürdig erscheint besonders der Volkspark, dessen nördliche Hälfte durch mangelhafte Ausstattung nur wenig genutzt wird, seine südliche Hälfte, auf welche sich die gesamte Ausstattung konzentriert, wird stark frequentiert. Mit Hilfe der aus den Untersuchungen abgeleiteten Folgerungen erhalten die Planungsträger im Bereich der Freizeitnutzung aktuelle Entscheidungsgrundlagen.
Resumo:
Eine häufige Art der Chemotherapie ist die Behandlung von Tumoren mit alkylierenden oder chloralkylierenden Zytostatika, die eine Alkylierung von Guanin in der DNA verursachen. Daraus resultieren eine Blockierung der DNA-Synthese und ein Rückgang im Tumorwachstum. Das Enzym O6-Methylguanin-DNA-methyltransferase (MGMT) ist in der Lage, solche Schäden zu reparieren. Da MGMT auch in verschiedenen Tumorarten exprimiert wird, eine Tatsache, die therapeutische Effekte verringern könnte, wird zur Zeit die Gabe von Inhibitoren der MGMT, wie O6-Benzylguanin, vor der eigentlichen Chemotherapie untersucht. Um möglicher Weise die Selektivität dieser Verbindungen für Tumor- vs. gesundem Gewebe und auch die in vivo-Eigenschaften zu verbessern, wurden glycosylierte Inhibitoren vorgeschlagen. Für eine Entwicklung neuer MGMT-Inhibitoren wäre es hilfreich, die in vivo Bioverteilung in Tier und Mensch durch eine Markierung mit geeigneten Isotopen verfolgen zu können. Im Moment existiert keine Möglichkeit, den MGMT-Status eines Tumors nicht-invasiv zu visualisieren. Diese Information kann sehr wichtig für die Planung einer Chemotherapie mit alkylierenden oder chloralkylierenden Zytostatika sein. Mit Methoden wie der Positronen-Emissions-Tomographie (PET) oder der Einzel-Photonen-Emissions-Tomographie (SPECT) ist eine nicht-invasive Quantifizierung von biochemischen Prozessen prinzipiell möglich. Hierfür wurden verschiedenen MGMT-Inhibitoren bereits mit Isotopen wie Fluor-18, Kohlenstoff-11 un Iod-131 markiert, aber sie waren aus unterschiedlichen Gründen nicht geeignet. Das Ziel dieser Arbeit war die Entwicklung von neuen O6-derivatisierten Guaninen, die über einen C8-Spacer an der N9-Position des Guanins mit einer Glucose-Einheit konjugiert werden sollten, geeigneten Markierungsvorläufern und Radioiodierungs-Methoden. Durch Wahl eines geeigneten Radioiodisotops für die Markierung des Restes an der O6-Position des Guanins kann die ex vivo-Bioverteilung dieser Verbindungen in tumortragenden Nacktmäusen (Iod-131) und die Untersuchung der in vivo-Verteilung (Iod-123) durchgeführt werden. Daher wurden O6-(5-Iodothenyl)- (ITG) und O6-(3-Iodbenzyl)guanin-Derivate (IBG) sowie ihre Glucose-Konjugate ITGG und IBGG synthetisiert. Von diesen inaktiven Standard-Verbindungen wurden die IC50-Werte zur MGMT bestimmt. Da sie alle im nM-Bereich lagen, schienen die Verbindungen für weitere Untersuchungen geeignet zu sein. Die Radiomarkierung der Inhibitoren mit Iod-131 bzw. Iod-123 wurde durch Umsetzung der Trialkyl-stannylierten Markierungsvorläufer mit der Chloramin T-Methode in mittleren (Iod-123) bis hohen (Iod-131) radiochemischen Ausbeuten und mit hohen radiochemischen Reinheiten durchgeführt. Mit den 131I-iodierten Verbindungen wurde die spezifische Bindung zur MGMT nachgewiesen, eine Eigenschaft, die essentiell für eine weitere Verwendung dieser Derivate ist. Sie wurden auch zur Bestimmung der ex vivo-Tumor- und Organverteilung in tumortragenden Nacktmäusen (MEX(+), MEX(-), Glioblastom) verwendet. In allen Fällen war die Tumoraufnahme der nicht-konjugierten Guanin-Derivate höher als die der entsprechenden Glucose-Konjugate. Das Tumor-Blut-Verhältnis, das sehr wichtig für einen potentiellen Einsatz der Verbindungen als Tracer des MGMT-Status eines Tumors ist, variierte abhängig von der Kinetik. Zu allen Zeitpunkten war die in vivo-Deiodierung der Glucose-Konjugate deutlich geringer als die von ITG oder IBG. Unter Verwendung von [131I]IBG und [131I]IBGG wurde die Biodistribution nach Inhibition der Natrium-abhängigen Glucose-Transporter, die zumindests teilweise für die Aufnahme der MGMT-Inhibitoren in Zellen verantwortlich sind, durch Phloretin untersucht. Einen Unterschied in der Tumoraufnahme zwischen den mit Phloretin behandelten und den unbehandelten Mäusen konnte nicht beobachtet werden, wahrscheinlich weil die Akkumulation im Tumor generell niedrig war. Mit den 123I-iodierten Verbindungen [123I]IBG und [123I]IBGG wurden in vivo-Scans an tumortragenden Nacktmäusen (MEX(+), MEX(-)) mit einer Kleintier-SPECT-Kamera durchgeführt. In beiden Fällen wurde eine geringe Akkumulation in den Tumoren im Vergleich zu anderen Organen beobachtet, was die ex vivo-Biodistributionsdaten bestätigte.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.
Resumo:
Der vorliegende Artikel beschäftigt sich mit der performativen Aushandlung nationaler Kultur auf dem National Festival of Arts and Culture, das 2006 in Wa, Nordwestghana, stattfand. Die Autorin nahm an der Vorbereitung und Planung des Festivals in lokalen staatlichen Kulturinstitutionen teil, und beobachtete die Diskussionen um die Repräsentation einer (imaginierten) spezifischen Kultur des Nordens in scharfer Abgrenzung zu der des als dominant und diskriminierend empfundenen Südens. In diesem Zusammenhang werden Fragen der Authentizität und Authentifizierung, wie sie in der Planung und Rezeption diskutiert wurden, aufgegriffen und mit der Konzeption des Festivals als gleichzeitig einheitsstiftendes Vehikel für nationale Identität und als Austragungsort eines Wettbewerbs der Regionen um Anerkennung und Ressourcen in Verbindung gesetzt. Das Festival, so die Argumentation, ist eine cultural performance, die das Wesen einer „Kultur“ nicht nur abbildet, sondern auch die Möglichkeit des Wandels und der Subversion birgt. Performance meint hier also gleichzeitig die Aufführung und das Skript der Diskurse, die der Aufführung Bedeutung zuschreiben. Diesen doppelten Ansatz verfolgt der Artikel durch die Verknüpfung von Festivalbeobachtungen und Komiteesitzungsmitschriften im Rahmen der Vorbereitung.
Resumo:
Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.
Resumo:
In der vorgelegten Doktorarbeit werden Experimente vorgestellt, die an einem einzelnen Proton in einer Penningfalle durchgeführt worden sind. Die Eigenbewegung eines isoliert gespeicherten, freien Protons konnte elektronisch durch Kopplung an einen Resonanzschwingkreis nachgewiesen werden. Dies stellt eine nicht-destruktive Messung dar, d. h. das Teilchen geht während der Messung nicht verloren. Die freie Zyklotronfrequenz, die aus den drei gemessenen Eigenfrequenzen hervorgeht, ist eine von zwei zur Bestimmung des magnetischen Moments notwendigen Frequenzen. So wird im Gegensatz zu den existierenden Arbeiten eine direkte Bestimmung des g-Faktors ermöglicht. Planung, Entwicklung und Inbetriebnahme des experimentellen Aufbaus wurden im Rahmen dieser Arbeit durchgeführt, womit eine Messgenauigkeit von 10-7 erreicht wurde. Die dabei zu bewältigenden technischen Herausforderungen zur Bestimmung der zweiten Frequenz (der Larmorfrequenz) ergeben sich aus der Kleinheit des magnetischen Moments. Bei dem für diese Messung benötigten Spinzustand des Teilchens handelt es sich um einen internen Freiheitsgrad, der nur über eine Kopplung des magnetischen Moments an die Eigenbewegung bestimmt werden kann. Eine neuartige, hybride Penningfalle wird in dieser Arbeit vorgestellt, die als Quantensprung-Spektrometer die Spininformation auf die Eigenbewegung abbildet. Damit liegt der aus der magnetischen Kopplung resultierende Frequenzunterschied in den beiden Spinzuständen erstmalig in einem elektronisch detektierbaren Bereich.