999 resultados para automatisierte Planung
Resumo:
Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.
Resumo:
Im Rahmen dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum Phasen- und Grenzflächenverhalten von ternären Systemen des Typs Lösungsmittel/Fällungsmittel/Polymer durchgeführt. Diese Art der Mischungen ist vor allem für die Planung und Durchführung der Membranherstellung von Bedeutung, bei der die genaue Kenntnis des Phasendiagramms und der Grenzflächenspannung unabdingbar ist. Als Polymere dienten Polystyrol sowie Polydimethylsiloxan. Im Fall des Polystyrols kam Butanon-2 als Lösungsmittel zum Einsatz, wobei drei niedrigmolekulare lineare Alkohole als Fällungsmittel verwendet wurden. Für Polydimethylsiloxan eignen sich Toluol als Lösungsmittel und Ethanol als Fällungsmittel. Durch Lichtstreumessungen, Dampfdruckbestimmungen mittels Headspace-Gaschromatographie (VLE-Gleichgewichte) sowie Quellungsgleichgewichten lassen sich die thermodynamischen Eigenschaften der binären Subsysteme charakterisieren. Auf Grundlage der Flory-Huggins-Theorie kann das experimentell bestimmte Phasenverhalten (LLE-Gleichgewichte) in guter Übereinstimmung nach der Methode der Direktminimierung der Gibbs'schen Energie modelliert werden. Zieht man die Ergebnisse der Aktivitätsbestimmung von Dreikomponenten-Mischungen mit in Betracht, so ergeben sich systematische Abweichungen zwischen Experiment und Theorie. Sie können auf die Notwendigkeit ternärer Wechselwirkungsparameter zurückgeführt werden, die ebenfalls durch Modellierung zugänglich sind.Durch die aus den VLE- und LLE-Untersuchungen gewonnenen Ergebnissen kann die sog. Hump-Energie berechnet werden, die ein Maß für die Entmischungstendenz darstellt. Diese Größe eignet sich gut zur Beschreibung von Grenzflächenphänomenen mittels Skalengesetzen. Die für binäre Systeme gefundenen theoretisch fundierten Skalenparameter gelten jedoch nur teilweise. Ein neues Skalengesetz lässt erstmals eine Beschreibung über die gesamte Mischungslücke zu, wobei ein Parameter durch eine gemessene Grenzflächenspannung (zwischen Fällungsmittel/Polymer) ersetzt werden kann.
Resumo:
Die vorliegende Arbeit untersucht die Wohlfahrtswirkung und die Freizeitnutzung des öffentlichen Grüns durch die einheimische Bevölkerung in Mainz am Beispiel von Volkspark, Stadtpark und Hartenbergpark und formuliert relevante Folgerungen für die Planung zur Verbesserung des Freizeitwertes. Zunächst wurde der aktuelle Stellenwert des öffentlichen Grüns für die Freizeit analysiert. Dies erfolgte im Rahmen einer Umfrage mit geschlossenen Fragebögen. In Mainz besteht ein großer Bedarf an öffentlichem Grün. Die Grünausstattung wird von der Stadtbevölkerung nur zurückhaltend beurteilt. Einen besonderen Stellenwert für die Freizeit nehmen ausgedehnte Parkanlagen und Wälder ein; dies muss in der Freizeitplanung für Mainz berücksichtigt werden.Die Freizeitnutzung der Besucher der drei Parks wurde durch eine Fragebogenaktion direkt vor Ort ermittelt. Außerdem wurde an verschiedenen Tagen die Besucherfrequenz erhoben. Es wurde das Besucherverhalten bezüglich Verkehrsmittel, Entfernung des Wohnortes, Dauer und Häufigkeit der Besuche analysiert. Darüber hinaus wurde die Zufriedenheit der Besucher mit den Parks bezüglich verschiedener Einrichtungen und der Grüngestaltung untersucht.Die Besucherfrequenz wurde an drei verschiedenen Tagen von 9-19 Uhr in jedem der drei Parks erhoben. Mit Hilfe dieser Daten wurde die Anzahl der Besucher am Tage erhoben, und die Besuchergruppen bezüglich Alter und Gruppengröße erfasst.Im Unterschied zu früheren Studien anderer Parks benutzen immer mehr Besucher das Auto zum Erreichen des Parks, und immer weniger Besucher kommen zu Fuß. Nachmittags werden die Parks am stärksten frequentiert.Alle drei Parks werden überwiegend von Mainzern besucht. Der beachtliche Besucheranteil von außerhalb der Stadt Mainz in Volkspark und Stadtpark gegenüber dem Hartenbergpark weist auf die überregionale Bedeutung beider Parks hin. Aus den Ergebnissen wurden planungsrelevante Folgerungen für die Ausstattung abgeleitet. Verbesserungswürdig erscheint besonders der Volkspark, dessen nördliche Hälfte durch mangelhafte Ausstattung nur wenig genutzt wird, seine südliche Hälfte, auf welche sich die gesamte Ausstattung konzentriert, wird stark frequentiert. Mit Hilfe der aus den Untersuchungen abgeleiteten Folgerungen erhalten die Planungsträger im Bereich der Freizeitnutzung aktuelle Entscheidungsgrundlagen.
Resumo:
Eine häufige Art der Chemotherapie ist die Behandlung von Tumoren mit alkylierenden oder chloralkylierenden Zytostatika, die eine Alkylierung von Guanin in der DNA verursachen. Daraus resultieren eine Blockierung der DNA-Synthese und ein Rückgang im Tumorwachstum. Das Enzym O6-Methylguanin-DNA-methyltransferase (MGMT) ist in der Lage, solche Schäden zu reparieren. Da MGMT auch in verschiedenen Tumorarten exprimiert wird, eine Tatsache, die therapeutische Effekte verringern könnte, wird zur Zeit die Gabe von Inhibitoren der MGMT, wie O6-Benzylguanin, vor der eigentlichen Chemotherapie untersucht. Um möglicher Weise die Selektivität dieser Verbindungen für Tumor- vs. gesundem Gewebe und auch die in vivo-Eigenschaften zu verbessern, wurden glycosylierte Inhibitoren vorgeschlagen. Für eine Entwicklung neuer MGMT-Inhibitoren wäre es hilfreich, die in vivo Bioverteilung in Tier und Mensch durch eine Markierung mit geeigneten Isotopen verfolgen zu können. Im Moment existiert keine Möglichkeit, den MGMT-Status eines Tumors nicht-invasiv zu visualisieren. Diese Information kann sehr wichtig für die Planung einer Chemotherapie mit alkylierenden oder chloralkylierenden Zytostatika sein. Mit Methoden wie der Positronen-Emissions-Tomographie (PET) oder der Einzel-Photonen-Emissions-Tomographie (SPECT) ist eine nicht-invasive Quantifizierung von biochemischen Prozessen prinzipiell möglich. Hierfür wurden verschiedenen MGMT-Inhibitoren bereits mit Isotopen wie Fluor-18, Kohlenstoff-11 un Iod-131 markiert, aber sie waren aus unterschiedlichen Gründen nicht geeignet. Das Ziel dieser Arbeit war die Entwicklung von neuen O6-derivatisierten Guaninen, die über einen C8-Spacer an der N9-Position des Guanins mit einer Glucose-Einheit konjugiert werden sollten, geeigneten Markierungsvorläufern und Radioiodierungs-Methoden. Durch Wahl eines geeigneten Radioiodisotops für die Markierung des Restes an der O6-Position des Guanins kann die ex vivo-Bioverteilung dieser Verbindungen in tumortragenden Nacktmäusen (Iod-131) und die Untersuchung der in vivo-Verteilung (Iod-123) durchgeführt werden. Daher wurden O6-(5-Iodothenyl)- (ITG) und O6-(3-Iodbenzyl)guanin-Derivate (IBG) sowie ihre Glucose-Konjugate ITGG und IBGG synthetisiert. Von diesen inaktiven Standard-Verbindungen wurden die IC50-Werte zur MGMT bestimmt. Da sie alle im nM-Bereich lagen, schienen die Verbindungen für weitere Untersuchungen geeignet zu sein. Die Radiomarkierung der Inhibitoren mit Iod-131 bzw. Iod-123 wurde durch Umsetzung der Trialkyl-stannylierten Markierungsvorläufer mit der Chloramin T-Methode in mittleren (Iod-123) bis hohen (Iod-131) radiochemischen Ausbeuten und mit hohen radiochemischen Reinheiten durchgeführt. Mit den 131I-iodierten Verbindungen wurde die spezifische Bindung zur MGMT nachgewiesen, eine Eigenschaft, die essentiell für eine weitere Verwendung dieser Derivate ist. Sie wurden auch zur Bestimmung der ex vivo-Tumor- und Organverteilung in tumortragenden Nacktmäusen (MEX(+), MEX(-), Glioblastom) verwendet. In allen Fällen war die Tumoraufnahme der nicht-konjugierten Guanin-Derivate höher als die der entsprechenden Glucose-Konjugate. Das Tumor-Blut-Verhältnis, das sehr wichtig für einen potentiellen Einsatz der Verbindungen als Tracer des MGMT-Status eines Tumors ist, variierte abhängig von der Kinetik. Zu allen Zeitpunkten war die in vivo-Deiodierung der Glucose-Konjugate deutlich geringer als die von ITG oder IBG. Unter Verwendung von [131I]IBG und [131I]IBGG wurde die Biodistribution nach Inhibition der Natrium-abhängigen Glucose-Transporter, die zumindests teilweise für die Aufnahme der MGMT-Inhibitoren in Zellen verantwortlich sind, durch Phloretin untersucht. Einen Unterschied in der Tumoraufnahme zwischen den mit Phloretin behandelten und den unbehandelten Mäusen konnte nicht beobachtet werden, wahrscheinlich weil die Akkumulation im Tumor generell niedrig war. Mit den 123I-iodierten Verbindungen [123I]IBG und [123I]IBGG wurden in vivo-Scans an tumortragenden Nacktmäusen (MEX(+), MEX(-)) mit einer Kleintier-SPECT-Kamera durchgeführt. In beiden Fällen wurde eine geringe Akkumulation in den Tumoren im Vergleich zu anderen Organen beobachtet, was die ex vivo-Biodistributionsdaten bestätigte.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.
Resumo:
Der vorliegende Artikel beschäftigt sich mit der performativen Aushandlung nationaler Kultur auf dem National Festival of Arts and Culture, das 2006 in Wa, Nordwestghana, stattfand. Die Autorin nahm an der Vorbereitung und Planung des Festivals in lokalen staatlichen Kulturinstitutionen teil, und beobachtete die Diskussionen um die Repräsentation einer (imaginierten) spezifischen Kultur des Nordens in scharfer Abgrenzung zu der des als dominant und diskriminierend empfundenen Südens. In diesem Zusammenhang werden Fragen der Authentizität und Authentifizierung, wie sie in der Planung und Rezeption diskutiert wurden, aufgegriffen und mit der Konzeption des Festivals als gleichzeitig einheitsstiftendes Vehikel für nationale Identität und als Austragungsort eines Wettbewerbs der Regionen um Anerkennung und Ressourcen in Verbindung gesetzt. Das Festival, so die Argumentation, ist eine cultural performance, die das Wesen einer „Kultur“ nicht nur abbildet, sondern auch die Möglichkeit des Wandels und der Subversion birgt. Performance meint hier also gleichzeitig die Aufführung und das Skript der Diskurse, die der Aufführung Bedeutung zuschreiben. Diesen doppelten Ansatz verfolgt der Artikel durch die Verknüpfung von Festivalbeobachtungen und Komiteesitzungsmitschriften im Rahmen der Vorbereitung.
Resumo:
Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.
Resumo:
In der vorgelegten Doktorarbeit werden Experimente vorgestellt, die an einem einzelnen Proton in einer Penningfalle durchgeführt worden sind. Die Eigenbewegung eines isoliert gespeicherten, freien Protons konnte elektronisch durch Kopplung an einen Resonanzschwingkreis nachgewiesen werden. Dies stellt eine nicht-destruktive Messung dar, d. h. das Teilchen geht während der Messung nicht verloren. Die freie Zyklotronfrequenz, die aus den drei gemessenen Eigenfrequenzen hervorgeht, ist eine von zwei zur Bestimmung des magnetischen Moments notwendigen Frequenzen. So wird im Gegensatz zu den existierenden Arbeiten eine direkte Bestimmung des g-Faktors ermöglicht. Planung, Entwicklung und Inbetriebnahme des experimentellen Aufbaus wurden im Rahmen dieser Arbeit durchgeführt, womit eine Messgenauigkeit von 10-7 erreicht wurde. Die dabei zu bewältigenden technischen Herausforderungen zur Bestimmung der zweiten Frequenz (der Larmorfrequenz) ergeben sich aus der Kleinheit des magnetischen Moments. Bei dem für diese Messung benötigten Spinzustand des Teilchens handelt es sich um einen internen Freiheitsgrad, der nur über eine Kopplung des magnetischen Moments an die Eigenbewegung bestimmt werden kann. Eine neuartige, hybride Penningfalle wird in dieser Arbeit vorgestellt, die als Quantensprung-Spektrometer die Spininformation auf die Eigenbewegung abbildet. Damit liegt der aus der magnetischen Kopplung resultierende Frequenzunterschied in den beiden Spinzuständen erstmalig in einem elektronisch detektierbaren Bereich.
Resumo:
Eine wichtige Grundlage kognitiver Prozesse ist die Fähigkeit, Informationen über einen gewissen Zeitraum hinweg verfügbar zu halten, um diese zur Steuerung zielgerichteten Verhaltens zu nutzen. Eine interessante Frage ist, auf Basis welcher Informationen motorische Handlungen wiederholt werden bzw. wie Bewegungen im Kurzzeitgedächtnis gespeichert werden, um sie genau reproduzieren zu können. Diese Frage wurde in sieben Experimenten anhand eines Interferenzparadigmas untersucht, bei dem die Versuchspersonen am PC per Maus eine kurze Bewegung ausführten und nach einem Behaltensintervall wiedergaben. Im Behaltensintervall mussten zusätzlich Aufgaben unterschiedlicher Modalitäten bearbeitet werden, die Aufschluss über das Speicherformat von Bewegungen geben. Anhand einer qualitativen und quantitativen Datenauswertung konnten Aussagen über resultat- und prozessbezogene Aspekte bei motorischen Arbeitsgedächtnisaufgaben getroffen werden. Die Ergebnisse sprechen dafür, dass bei der Lösung einer motorischen Arbeitsgedächtnisaufgabe sowohl visuelle als auch kinästhetische Hinweisreize (so genannte Cues) berücksichtigt werden. Diese Cues werden in einem redundanten Format gespeichert, d. h. auch Informationen, die nicht zwingend zur Lösung der Aufgabe notwendig sind, werden vom kognitiven System herangezogen. Diese redundante Speicherung dient der Stabilisierung der internen Bewegungsrepräsentation, die unter anderem auch Informationen über Geschwindigkeitsparameter enthält. Es zeigt sich, dass automatisch ablaufende kognitive Mechanismen bei der Aufgabenlösung eine entscheidende Rolle spielen. Dabei konnten aufgabenspezifische Strategien, wie etwa die Optimierung der Arbeitsabläufe, aber auch generelle Mechanismen, nämlich Redundanz sowie Konstruktions- und Rekonstruktionsmechanismen bei der Bewegungsplanung, beobachtet werden. Die Ergebnisse werfen die Frage auf, ob es sich bei den untersuchten Prozessen tatsächlich um Arbeitsgedächtnisprozesse der kurzzeitigen Speicherung handelt, oder ob die beobachteten Phänomene allein durch motorische Planung und Kontrolle zu erklären sind. Die bisher gefundenen Ergebnisse regen ferner dazu an, bisherige strukturelle Arbeitsgedächtnismodelle, wie etwa das klassische Modell von Baddeley und Hitch (1974), um prozessorientierte Aspekte zu erweitern.
Resumo:
Die vorliegende Handreichung versteht sich als Hilfestellung bei der Vermittlung von Kompetenzen und deren Bewertung in der Hochschullehre – sowohl auf der Ebene von Veranstaltungstypen als auch von Prüfungen – mit dem Ziel, Lehrende bei der Planung von Studiengängen und einzelnen Veranstaltungen zu unterstützen. Sie gliedert sich in drei Teile: Im ersten Teil werden die verschiedenen universitären Veranstaltungsformen dargestellt. Einer Beschreibung der jeweiligen Veranstaltungsform folgt eine grafische Aufschlüsselung der primär vermittelten Kompetenzarten. Zusätzlich werden veranstaltungsspezifische Beispiele für hochschuldidaktische Methoden zur Optimierung des Lehr-/Lernprozesses und des Learning Outcome aufgeführt, die zur Planung und Durchführung herangezogen werden können. Abschließend werden mögliche geeignete Prüfungsformen vorgeschlagen. Der zweite Teil widmet sich dem Zusammenspiel von Prüfungen und Kompetenzen. Ziel ist es darzustellen, welche Prüfungsformen sich besonders für die Bewertung von Kenntnissen im Hinblick auf einzelne Kompetenzen eignen. Die vorgestellten hochschuldidaktischen Methoden werden im dritten Teil der Handreichung näher beschrieben, wobei besonders auf deren Potenzial für die Vermittlung der einzelnen Kompetenzen eingegangen wird.
Resumo:
Im Juli 2009 wurde am Mainzer Mikrotron (MAMI) erstmal ein Experiment durchgeführt, bei dem ein polarisiertes 3He Target mit Photonen im Energiebereich von 200 bis 800 MeV untersucht wurde. Das Ziel dieses Experiments war die Überprüfung der Gerasimov-Drell-Hearn Summenregel am Neutron. Die Verwendung der Messdaten welche mit dem polarisierten 3He Target gewonnen wurden, geben - im Vergleich mit den bereits existieren Daten vom Deuteron - aufgrund der Spin-Struktur des 3He einen komplementären und direkteren Zugang zum Neutron. Die Messung des totalen helizitätsabhängigen Photoabsorptions-Wirkungsquerschnitts wurde mittels eines energiemarkierten Strahls von zirkular polarisierten Photonen, welcher auf das longitudinal polarisierte 3He Target trifft, durchgeführt. Als Produktdetektoren kamen der Crystal Ball (4π Raumabdeckung), TAPS (als ”Vorwärtswand”) sowie ein Schwellen-Cherenkov-Detektor (online Veto zur Reduktion von elektromagnetischen Ereignissen) zum Einsatz. Planung und Aufbau der verschiedenen komponenten Teile des 3He Experimentaufbaus war ein entscheidender Teil dieser Dissertation und wird detailliert in der vorliegenden Arbeit beschrieben. Das Detektorsystem als auch die Analyse-Methoden wurden durch die Messung des unpolarisierten, totalen und inklusiven Photoabsoprtions-Wirkungsquerschnitts an flüssigem Wasserstoff getestet. Hierbei zeigten die Ergebnisse eine gute Übereinstimmung mit bereits zuvor publizierten Daten. Vorläufige Ergebnisse des unpolarisierten totalen Photoabsorptions-Wirkungsquerschnitts sowie der helizitätsabhängige Unterschied zwischen Photoabsorptions-Wirkungsquerschnitten an 3He im Vergleich zu verschiedenen theoretischen Modellen werden vorgestellt.
Resumo:
Die vorliegende Arbeit befasst sich mit der Erlösdiversifizierung privater deutscher Free-TV-Unternehmen. Im Zentrum stehen dabei die Entwicklung eines Nutzwerttheo-rie-basierten Modells zur Bestimmung attraktiver Diversifikationsfelder und dessen empirische Überprüfung. Zur Modellbildung werden sowohl der market-based als auch der resource-based View des strategischen Managements berücksichtigt und methodisch integriert. Zunächst werden anhand von Fallstudien der Mediengruppe RTL Deutsch-land und der ProSiebenSat.1 Media AG der strategische Optionsraum bestehend aus 15 Diversifizierungsmärkten identifiziert und die Kernressourcen deutscher Free-TV-Unternehmen untersucht. Aufbauend auf den gewonnenen Erkenntnissen wird das soge-nannte COAT-Diversifizierungsmodell als Rahmenmodell für die Planung und Bewer-tung von Diversifizierungsstrategien entworfen (COAT = Online Content Distribution, Offline Activities und Add-On Services/ Transaction TV). Durch eine ausführliche Be-fragung von 26 hochrangigen Managern, Senderchefs und Branchenbeobachtern der deutschen TV-Industrie wird das entworfene Modell überprüft und die Attraktivität der identifizierten Diversifizierungsmärkte ermittelt. Im Zentrum des Modells und der Ex-pertenbefragung steht die Durchführung einer Nutzwertanalyse, anhand derer zum einen die Marktattraktivität der verschiedenen Diversifizierungsmärkte ermittelt wird (market-based View), und zum anderen die Bedeutung der Kernressourcen eines Free-TV-Unternehmens in den verschiedenen Diversifizierungsmärkten untersucht wird (ressour-ce-based View). Hierzu werden für beide Dimensionen entsprechende Subkriterien de-finiert und eine Nutzwertbewertung für jedes Kriterium in jedem der 15 Märkte vorge-nommen. Aus den ermittelten Teilnutzwerten können für jeden untersuchten Markt ein übergreifender marktorientierter Nutzwert NM und ein ressourcenorienterter Nutzwert NR ermittelt werden. Im Resultat lässt sich ein Nutzwert-Portfolio aufspannen, in dem die 15 Diversifizierungsmärkte entsprechend ihrer ressourcen- und marktorientierten Nutzwertkombinationen in vier Gruppen kategorisiert werden: Diversifizierungsmärkte mit 1) sehr hoher Attraktivität, 2) hoher Marktchance, 3) hoher Opportunität oder rn4) geringer Attraktivität. Abschließend werden erste Normstrategien für die einzelnen Diversifizierungskategorien abgeleitet und die Eignung des COAT-Diversifizierungs-modells für die strategische Planung analysiert.rn
Resumo:
In the present thesis I examined individual and sex-specific habitat use and site fidelity in the western barbastelle bat, Barbastella barbastellus, using data from a four-year monitoring in a Special Area of Conservation in Rhineland-Palatinate, Germany. The western barbastelle occurs in central and southern Europe from Portugal to the Caucasus, but is considered to be rare in large parts of its range. Up to now, long-term field studies to assess interannual site fidelity and the possible effects of intra- and interspecific competition have not been studied in this species. Nevertheless, such data provide important details to estimate the specific spatial requirements of its populations, which in turn can be incorporated in extended conservation actions. I used radio-telemetry, home range analyses und automated ultrasound detection to assess the relation between landscape elements and western barbastelle bats and their roosts. In addition, I estimated the degree of interspecific niche overlap with two selected forest-dwelling bat species, Bechstein's bat (Myotis bechsteinii) and the brown long-eared bat (Plecotus auritus). Intra- and interannual home range overlap analyses of female B. barbastellus revealed that fidelity to individual foraging grounds, i.e. a traditional use of particular sites, seems to effect the spatial distribution of home ranges more than intraspecific competition among communally roosting females. The results of a joint analysis of annual maternity roost selection and flight activities along commuting corridors highlight the necessity to protect roost complexes in conjunction with commuting corridors. Using radio-tracking data and an Euclidean distance approach I quantified the sex-specific and individual habitat use by female and male western barbastelle bats within their home ranges. My data indicated a partial sexual segregation in summer habitats. Females were found in deciduous forest patches and preferably foraged along linear elements within the forest. Males foraged closer to forest edges and in open habitats. Finally, I examined the resource partitioning between the western barbastelle bat and two syntopic bat species with a potential for interspecific competition due to similarities in foraging strategies, prey selection and roost preferences. Simultaneous radio-tracking of mixed-species pairs revealed a partial spatial separation of the three syntopic bat species along a gradient from the forest to edge habitats and open landscape. Long-eared bats were found close to open habitats which were avoided by the other two species. B. barbastellus preferred linear landscape elements (edge habitats) and forests, M. bechsteinii also preferred forest habitats. Only little overlap in terms of roost structure and tree species selection was found.
Resumo:
Die intrazelluläre Lokalisation von Proteinen und Makromolekülen unterliegt in Eukaryoten einer strengen Regulation. Insbesondere erlaubt die Kompartimentierung eukaryotischer Zellen in Zellkern und Zytoplasma den simultanen Ablauf räumlich getrennter biochemischer Reaktionen, und damit die unabhängige Regulation zellulärer Programme. Da trotz intensiver Forschungsbemühungen bis dato die molekularen Details sowie die (patho)biologische Bedeutung von Kern-Zytoplasma-Transportprozessen noch immer nicht vollkommen verstanden sind, wurde im Rahmen der vorliegenden Arbeit ein Fokus auf die Identifizierung von chemischen Transportinhibitoren gelegt. Das zu diesem Zweck entwickelte Translokations-Biosensor-System basiert auf der Kombination von autofluoreszierenden Proteinen, sowie spezifisch ausgewählten Kernexport- und Kernimportsignalen. Nach Etablierung geeigneter Zellmodelle, die effizient und stabil die Translokations-Biosensoren exprimieren, wurde die 17 000 Substanzen umfassende Bibliothek der ChemBioNet-Initiative nach Kernexportinhibitoren mittels einer Fluoreszenzmikroskopie-basierten Hochdurchsatzanalyse-Plattform durchmustert. Zunächst wurden Translokations-Algorithmen, welche eine zuverlässige automatisierte Erkennung von Zellkern und Zytoplasma erlauben, optimiert. Im Folgenden konnten acht neue niedermolekulare Kernexport-Inhibitoren identifiziert werden, die sich in der Stärke, der Geschwindigkeit, sowie in der Beständigkeit der vermittelten Inhibition unterscheiden. Die Aktivität der Inhibitoren konnte auf den isolierten nukleären Exportsignalen (NES) von HIV-1 Rev und Survivin als auch auf den entsprechenden Volllängeproteinen mittels Mikroinjektionsexperimenten sowie durch umfassende in vitro und biochemische Methoden bestätigt werden. Zur Untersuchung der funktionellen Einheiten der Inhibitoren wurden homologe Substanzen auf Ihre Aktivität hin getestet. Dabei konnten für die Aktivität wichtige chemische Gruppen definiert werden. Alle Substanzen stellen neue Inhibitoren des Crm1-abhängigen Exports dar und zeigen keine nachweisbare NES-Selektivität. Interessanterweise konnte jedoch eine zytotoxische und Apoptose-induzierende Wirkung auf verschiedene Krebszellarten festgestellt werden. Da diese Wirkung unabhängig vom p53-Status der Tumorzellen ist und die Inhibitoren C3 und C5 die Vitalität nicht-maligner humaner Zellen signifikant weniger beeinträchtigen, wurden diese Substanzen zum internationalen Patent angemeldet. Da der nukleäre Export besonders für Tumorzellen einen wichtigen Überlebenssignalweg darstellt, könnte dessen reversible Hemmung ausgenutzt werden, um besonders in Kombination mit gängigen Krebstherapien eine therapeutisch relevante Tumorinhibition zu erzeugen. Eine weitere Anwendungsmöglichkeit der neuen Exportinhibitoren ist auf dem Gebiet der Infektionskrankheiten zu sehen, da auch die Aktivität des essentiellen HIV-1 Rev-Proteins inhibiert wird. Zusätzlich konnte in der Arbeit gezeigt werden, dass der zelluläre Kofaktor des Crm1-abhängigen Exports des HIV-1 Rev-Proteins, die RNA-Helikase DDX3, ein eigenes NES enthält. Der Nachweis einer direkten Interaktion des HIV-1 Rev- mit dem DDX3-Protein impliziert, dass multiple Angriffstellen für chemische Modulatoren hinsichtlich einer antiviralen Therapie gegeben sind. Da die Vielfalt des chemischen Strukturraums es unmöglich macht diesen experimentell vollständig zu durchmustern, wurden im Rahmen dieser Arbeit auch Naturstoffe als vielversprechende Wirkstoffquelle untersucht. Um zukünftig umfassend bioaktive Substanzen aus diesen hochkomplexen Stoffgemischen experimentell identifizieren zu können, wurde eine Fluoreszenzmikroskopie-basierte Hochdurchsatzanalyse-Plattform am Mainz Screening Center (MSC) etabliert. Damit konnte bereits ein weiterer, bisher unbekannter Exportinhibitor aus Cyphellopsis anomala identifiziert werden. Neben einer Anwendung dieser Substanz als chemisches Werkzeug zur Aufklärung der Regulation von Transportvorgängen, stellt sich auch die evolutionsbiologisch relevante Frage, wie es dem Pilzproduzenten gelingt die Blockierung des eigenen Kernexports zu umgehen. Weiterführende Projekte müssen sich neben der Aufklärung der molekularen Wirkmechanismen der gefundenen Substanzen mit der Identifizierung spezifischer chemischer „Funktionseinheiten“ beschäftigen. Neben einem verbesserten mechanistischen Verständnis von Transportvorgängen stellen die erarbeiteten Transportinhibitoren Vorstufen zur Weiterentwicklung möglicher Wirkstoffe dar. Die im Rahmen dieser Arbeit etablierte Technologie-Plattform und molekularen Werkzeuge stellen darüber hinaus eine wichtige Voraussetzung dar, um eine systematische Suche nach möglichen Wirkstoffen im Forschungsfeld der „Chemischen Biomedizin“ voranzutreiben.