23 resultados para automatisierte Planung
Resumo:
Zusammenfassung Im Rahmen dieser Arbeit konnten vier neue Ligandsysteme fürPolymerisationskatalysatoren entwickelt werden, dieisoelektronisch zu Cp-Liganden (L2X-Ligand) oder Ligandenvon ansa-Metallocenen (L4X2-Ligand) sind. Dazu zählensubstituierte Azacyclopentadiene, 2-(Amionomethyl)thiophene,donorfunktionalisierte Amidine und1,4-Dithiabutan-verbrückte Bis(phenole).Alle Liganden wurden erfolgreich komplexiert. Bis auf diePyrrolkomplexe zeigten alle Komplexe zum Teil sehr hohePolymerisationsaktivitäten. Die Bis(phenolato)-Katalysatorenpolymerisieren Styrol isotaktisch und bieten Anwendungen fürverschiedene Copolymerisationsexperimente.Die neu entwickelten Katalysatoren haben sich trotz ihrerCp-isoelektronischen Ligandsysteme höchst unterschiedlichbezüglich ihrer Eignung als Polymerisations-Katalysatorengezeigt. Vor diesem Hintergrund wird deutlich, dass nebenden elektronischen Gegebenheiten ebenso sterische wiegeometrische Einflüsse von Bedeutung sind. Für die Zukunftwird das Aufklären der Struktur-Wirkungs-Beziehung einewichtige Herausforderung bleiben. Ferner konnten meisten Syntheseschritte so ausgearbeitetwerden, dass High Throughput Experimente im Automatenmöglich sind.
Resumo:
Therapeutisches Drug Monitoring (TDM) wird zur individuellen Dosiseinstellung genutzt, um die Effizienz der Medikamentenwirkung zu steigern und das Auftreten von Nebenwirkungen zu senken. Für das TDM von Antipsychotika und Antidepressiva besteht allerdings das Problem, dass es mehr als 50 Medikamente gibt. Ein TDM-Labor muss dementsprechend über 50 verschiedene Wirkstoffe und zusätzlich aktive Metaboliten messen. Mit der Flüssigchromatographie (LC oder HPLC) ist die Analyse vieler unterschiedlicher Medikamente möglich. LC mit Säulenschaltung erlaubt eine Automatisierung. Dabei wird Blutserum oder -plasma mit oder ohne vorherige Proteinfällung auf eine Vorsäule aufgetragen. Nach Auswaschen von störenden Matrixbestandteilen werden die Medikamente auf einer nachgeschalteten analytischen Säule getrennt und über Ultraviolettspektroskopie (UV) oder Massenspektrometrie (MS) detektiert. Ziel dieser Arbeit war es, LC-Methoden zu entwickeln, die die Messung möglichst vieler Antipsychotika und Antidepressiva erlaubt und die für die TDM-Routine geeignet ist. Eine mit C8-modifiziertem Kieselgel gefüllte Säule (20 µm 10x4.0 mm I.D.) erwies sich in Vorexperimenten als optimal geeignet bezüglich Extraktionsverhalten, Regenerierbarkeit und Stabilität. Mit einer ersten HPLC-UV-Methode mit Säulenschaltung konnten 20 verschiedene Psychopharmaka einschließlich ihrer Metabolite, also insgesamt 30 verschiedene Substanzen quantitativ erfasst werden. Die Analysenzeit betrug 30 Minuten. Die Vorsäule erlaubte 150 Injektionen, die analytische Säule konnte mit mehr als 300 Plasmainjektionen belastet werden. Abhängig vom Analyten, musste allerdings das Injektionsvolumen, die Flussrate oder die Detektionswellenlänge verändert werden. Die Methode war daher für eine Routineanwendung nur eingeschränkt geeignet. Mit einer zweiten HPLC-UV-Methode konnten 43 verschiedene Antipsychotika und Antidepressiva inklusive Metaboliten nachgewiesen werden. Nach Vorreinigung über C8-Material (10 µm, 10x4 mm I.D.) erfolgte die Trennung auf Hypersil ODS (5 µm Partikelgröße) in der analytischen Säule (250x4.6 mm I.D.) mit 37.5% Acetonitril im analytischen Eluenten. Die optimale Flussrate war 1.5 ml/min und die Detektionswellenlänge 254 nm. In einer Einzelprobe, konnten mit dieser Methode 7 bis 8 unterschiedliche Substanzen gemessen werden. Für die Antipsychotika Clozapin, Olanzapin, Perazin, Quetiapin und Ziprasidon wurde die Methode validiert. Der Variationskoeffizient (VK%) für die Impräzision lag zwischen 0.2 und 6.1%. Im erforderlichen Messbereich war die Methode linear (Korrelationskoeffizienten, R2 zwischen 0.9765 und 0.9816). Die absolute und analytische Wiederfindung lagen zwischen 98 und 118 %. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Für Olanzapin betrug sie 5 ng/ml. Die Methode wurde an Patienten für das TDM getestet. Sie erwies sich für das TDM als sehr gut geeignet. Nach retrospektiver Auswertung von Patientendaten konnte erstmalig ein möglicher therapeutischer Bereich für Quetiapin (40-170 ng/ml) und Ziprasidon (40-130 ng/ml) formuliert werden. Mit einem Massenspektrometer als Detektor war die Messung von acht Neuroleptika und ihren Metaboliten möglich. 12 Substanzen konnten in einem Lauf bestimmt werden: Amisulprid, Clozapin, N-Desmethylclozapin, Clozapin-N-oxid, Haloperidol, Risperidon, 9-Hydroxyrisperidon, Olanzapin, Perazin, N-Desmethylperazin, Quetiapin und Ziprasidon. Nach Vorreinigung mit C8-Material (20 µm 10x4.0 mm I.D.) erfolgte die Trennung auf Synergi MAX-RP C12 (4 µm 150 x 4.6 mm). Die Validierung der HPLC-MS-Methode belegten einen linearen Zusammenhang zwischen Konzentration und Detektorsignal (R2= 0,9974 bis 0.9999). Die Impräzision lag zwischen 0.84 bis 9.78%. Die für das TDM erforderlichen unteren Nachweisgrenzen wurden erreicht. Es gab keine Hinweise auf das Auftreten von Ion Suppression durch Matrixbestandteile. Die absolute und analytische Wiederfindung lag zwischen 89 und 107 %. Es zeigte sich, dass die HPLC-MS-Methode ohne Modifikation erweitert werden kann und anscheinend mehr als 30 verschiedene Psychopharmaka erfasst werden können. Mit den entwickelten flüssigchromatographischen Methoden stehen neue Verfahren für das TDM von Antipsychotika und Antidepressiva zur Verfügung, die es erlauben, mit einer Methode verschiedene Psychopharmaka und ihre aktiven Metabolite zu messen. Damit kann die Behandlung psychiatrischer Patienten insbesondere mit Antipsychotika verbessert werden.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
Im Rahmen dieser Arbeit wurden experimentelle und theoretische Untersuchungen zum Phasen- und Grenzflächenverhalten von ternären Systemen des Typs Lösungsmittel/Fällungsmittel/Polymer durchgeführt. Diese Art der Mischungen ist vor allem für die Planung und Durchführung der Membranherstellung von Bedeutung, bei der die genaue Kenntnis des Phasendiagramms und der Grenzflächenspannung unabdingbar ist. Als Polymere dienten Polystyrol sowie Polydimethylsiloxan. Im Fall des Polystyrols kam Butanon-2 als Lösungsmittel zum Einsatz, wobei drei niedrigmolekulare lineare Alkohole als Fällungsmittel verwendet wurden. Für Polydimethylsiloxan eignen sich Toluol als Lösungsmittel und Ethanol als Fällungsmittel. Durch Lichtstreumessungen, Dampfdruckbestimmungen mittels Headspace-Gaschromatographie (VLE-Gleichgewichte) sowie Quellungsgleichgewichten lassen sich die thermodynamischen Eigenschaften der binären Subsysteme charakterisieren. Auf Grundlage der Flory-Huggins-Theorie kann das experimentell bestimmte Phasenverhalten (LLE-Gleichgewichte) in guter Übereinstimmung nach der Methode der Direktminimierung der Gibbs'schen Energie modelliert werden. Zieht man die Ergebnisse der Aktivitätsbestimmung von Dreikomponenten-Mischungen mit in Betracht, so ergeben sich systematische Abweichungen zwischen Experiment und Theorie. Sie können auf die Notwendigkeit ternärer Wechselwirkungsparameter zurückgeführt werden, die ebenfalls durch Modellierung zugänglich sind.Durch die aus den VLE- und LLE-Untersuchungen gewonnenen Ergebnissen kann die sog. Hump-Energie berechnet werden, die ein Maß für die Entmischungstendenz darstellt. Diese Größe eignet sich gut zur Beschreibung von Grenzflächenphänomenen mittels Skalengesetzen. Die für binäre Systeme gefundenen theoretisch fundierten Skalenparameter gelten jedoch nur teilweise. Ein neues Skalengesetz lässt erstmals eine Beschreibung über die gesamte Mischungslücke zu, wobei ein Parameter durch eine gemessene Grenzflächenspannung (zwischen Fällungsmittel/Polymer) ersetzt werden kann.
Resumo:
Die vorliegende Arbeit untersucht die Wohlfahrtswirkung und die Freizeitnutzung des öffentlichen Grüns durch die einheimische Bevölkerung in Mainz am Beispiel von Volkspark, Stadtpark und Hartenbergpark und formuliert relevante Folgerungen für die Planung zur Verbesserung des Freizeitwertes. Zunächst wurde der aktuelle Stellenwert des öffentlichen Grüns für die Freizeit analysiert. Dies erfolgte im Rahmen einer Umfrage mit geschlossenen Fragebögen. In Mainz besteht ein großer Bedarf an öffentlichem Grün. Die Grünausstattung wird von der Stadtbevölkerung nur zurückhaltend beurteilt. Einen besonderen Stellenwert für die Freizeit nehmen ausgedehnte Parkanlagen und Wälder ein; dies muss in der Freizeitplanung für Mainz berücksichtigt werden.Die Freizeitnutzung der Besucher der drei Parks wurde durch eine Fragebogenaktion direkt vor Ort ermittelt. Außerdem wurde an verschiedenen Tagen die Besucherfrequenz erhoben. Es wurde das Besucherverhalten bezüglich Verkehrsmittel, Entfernung des Wohnortes, Dauer und Häufigkeit der Besuche analysiert. Darüber hinaus wurde die Zufriedenheit der Besucher mit den Parks bezüglich verschiedener Einrichtungen und der Grüngestaltung untersucht.Die Besucherfrequenz wurde an drei verschiedenen Tagen von 9-19 Uhr in jedem der drei Parks erhoben. Mit Hilfe dieser Daten wurde die Anzahl der Besucher am Tage erhoben, und die Besuchergruppen bezüglich Alter und Gruppengröße erfasst.Im Unterschied zu früheren Studien anderer Parks benutzen immer mehr Besucher das Auto zum Erreichen des Parks, und immer weniger Besucher kommen zu Fuß. Nachmittags werden die Parks am stärksten frequentiert.Alle drei Parks werden überwiegend von Mainzern besucht. Der beachtliche Besucheranteil von außerhalb der Stadt Mainz in Volkspark und Stadtpark gegenüber dem Hartenbergpark weist auf die überregionale Bedeutung beider Parks hin. Aus den Ergebnissen wurden planungsrelevante Folgerungen für die Ausstattung abgeleitet. Verbesserungswürdig erscheint besonders der Volkspark, dessen nördliche Hälfte durch mangelhafte Ausstattung nur wenig genutzt wird, seine südliche Hälfte, auf welche sich die gesamte Ausstattung konzentriert, wird stark frequentiert. Mit Hilfe der aus den Untersuchungen abgeleiteten Folgerungen erhalten die Planungsträger im Bereich der Freizeitnutzung aktuelle Entscheidungsgrundlagen.
Resumo:
Eine häufige Art der Chemotherapie ist die Behandlung von Tumoren mit alkylierenden oder chloralkylierenden Zytostatika, die eine Alkylierung von Guanin in der DNA verursachen. Daraus resultieren eine Blockierung der DNA-Synthese und ein Rückgang im Tumorwachstum. Das Enzym O6-Methylguanin-DNA-methyltransferase (MGMT) ist in der Lage, solche Schäden zu reparieren. Da MGMT auch in verschiedenen Tumorarten exprimiert wird, eine Tatsache, die therapeutische Effekte verringern könnte, wird zur Zeit die Gabe von Inhibitoren der MGMT, wie O6-Benzylguanin, vor der eigentlichen Chemotherapie untersucht. Um möglicher Weise die Selektivität dieser Verbindungen für Tumor- vs. gesundem Gewebe und auch die in vivo-Eigenschaften zu verbessern, wurden glycosylierte Inhibitoren vorgeschlagen. Für eine Entwicklung neuer MGMT-Inhibitoren wäre es hilfreich, die in vivo Bioverteilung in Tier und Mensch durch eine Markierung mit geeigneten Isotopen verfolgen zu können. Im Moment existiert keine Möglichkeit, den MGMT-Status eines Tumors nicht-invasiv zu visualisieren. Diese Information kann sehr wichtig für die Planung einer Chemotherapie mit alkylierenden oder chloralkylierenden Zytostatika sein. Mit Methoden wie der Positronen-Emissions-Tomographie (PET) oder der Einzel-Photonen-Emissions-Tomographie (SPECT) ist eine nicht-invasive Quantifizierung von biochemischen Prozessen prinzipiell möglich. Hierfür wurden verschiedenen MGMT-Inhibitoren bereits mit Isotopen wie Fluor-18, Kohlenstoff-11 un Iod-131 markiert, aber sie waren aus unterschiedlichen Gründen nicht geeignet. Das Ziel dieser Arbeit war die Entwicklung von neuen O6-derivatisierten Guaninen, die über einen C8-Spacer an der N9-Position des Guanins mit einer Glucose-Einheit konjugiert werden sollten, geeigneten Markierungsvorläufern und Radioiodierungs-Methoden. Durch Wahl eines geeigneten Radioiodisotops für die Markierung des Restes an der O6-Position des Guanins kann die ex vivo-Bioverteilung dieser Verbindungen in tumortragenden Nacktmäusen (Iod-131) und die Untersuchung der in vivo-Verteilung (Iod-123) durchgeführt werden. Daher wurden O6-(5-Iodothenyl)- (ITG) und O6-(3-Iodbenzyl)guanin-Derivate (IBG) sowie ihre Glucose-Konjugate ITGG und IBGG synthetisiert. Von diesen inaktiven Standard-Verbindungen wurden die IC50-Werte zur MGMT bestimmt. Da sie alle im nM-Bereich lagen, schienen die Verbindungen für weitere Untersuchungen geeignet zu sein. Die Radiomarkierung der Inhibitoren mit Iod-131 bzw. Iod-123 wurde durch Umsetzung der Trialkyl-stannylierten Markierungsvorläufer mit der Chloramin T-Methode in mittleren (Iod-123) bis hohen (Iod-131) radiochemischen Ausbeuten und mit hohen radiochemischen Reinheiten durchgeführt. Mit den 131I-iodierten Verbindungen wurde die spezifische Bindung zur MGMT nachgewiesen, eine Eigenschaft, die essentiell für eine weitere Verwendung dieser Derivate ist. Sie wurden auch zur Bestimmung der ex vivo-Tumor- und Organverteilung in tumortragenden Nacktmäusen (MEX(+), MEX(-), Glioblastom) verwendet. In allen Fällen war die Tumoraufnahme der nicht-konjugierten Guanin-Derivate höher als die der entsprechenden Glucose-Konjugate. Das Tumor-Blut-Verhältnis, das sehr wichtig für einen potentiellen Einsatz der Verbindungen als Tracer des MGMT-Status eines Tumors ist, variierte abhängig von der Kinetik. Zu allen Zeitpunkten war die in vivo-Deiodierung der Glucose-Konjugate deutlich geringer als die von ITG oder IBG. Unter Verwendung von [131I]IBG und [131I]IBGG wurde die Biodistribution nach Inhibition der Natrium-abhängigen Glucose-Transporter, die zumindests teilweise für die Aufnahme der MGMT-Inhibitoren in Zellen verantwortlich sind, durch Phloretin untersucht. Einen Unterschied in der Tumoraufnahme zwischen den mit Phloretin behandelten und den unbehandelten Mäusen konnte nicht beobachtet werden, wahrscheinlich weil die Akkumulation im Tumor generell niedrig war. Mit den 123I-iodierten Verbindungen [123I]IBG und [123I]IBGG wurden in vivo-Scans an tumortragenden Nacktmäusen (MEX(+), MEX(-)) mit einer Kleintier-SPECT-Kamera durchgeführt. In beiden Fällen wurde eine geringe Akkumulation in den Tumoren im Vergleich zu anderen Organen beobachtet, was die ex vivo-Biodistributionsdaten bestätigte.
Resumo:
In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.
Resumo:
The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.
Resumo:
Der vorliegende Artikel beschäftigt sich mit der performativen Aushandlung nationaler Kultur auf dem National Festival of Arts and Culture, das 2006 in Wa, Nordwestghana, stattfand. Die Autorin nahm an der Vorbereitung und Planung des Festivals in lokalen staatlichen Kulturinstitutionen teil, und beobachtete die Diskussionen um die Repräsentation einer (imaginierten) spezifischen Kultur des Nordens in scharfer Abgrenzung zu der des als dominant und diskriminierend empfundenen Südens. In diesem Zusammenhang werden Fragen der Authentizität und Authentifizierung, wie sie in der Planung und Rezeption diskutiert wurden, aufgegriffen und mit der Konzeption des Festivals als gleichzeitig einheitsstiftendes Vehikel für nationale Identität und als Austragungsort eines Wettbewerbs der Regionen um Anerkennung und Ressourcen in Verbindung gesetzt. Das Festival, so die Argumentation, ist eine cultural performance, die das Wesen einer „Kultur“ nicht nur abbildet, sondern auch die Möglichkeit des Wandels und der Subversion birgt. Performance meint hier also gleichzeitig die Aufführung und das Skript der Diskurse, die der Aufführung Bedeutung zuschreiben. Diesen doppelten Ansatz verfolgt der Artikel durch die Verknüpfung von Festivalbeobachtungen und Komiteesitzungsmitschriften im Rahmen der Vorbereitung.
Resumo:
Therapeutisches Drug Monitoring (TDM) umfasst die Messung von Medikamentenspiegeln im Blut und stellt die Ergebnisse in Zusammenhang mit dem klinischen Erscheinungsbild der Patienten. Dabei wird angenommen, dass die Konzentrationen im Blut besser mit der Wirkung korrelieren als die Dosis. Dies gilt auch für Antidepressiva. Voraussetzung für eine Therapiesteuerung durch TDM ist die Verfügbarkeit valider Messmethoden im Labor und die korrekte Anwendung des Verfahrens in der Klinik. Ziel dieser Arbeit war es, den Einsatz von TDM für die Depressionsbehandlung zu analysieren und zu verbessern. Im ersten Schritt wurde für das neu zugelassene Antidepressivum Duloxetin eine hochleistungsflüssig-chromatographische (HPLC) Methode mit Säulenschaltung und spektrophotometrischer Detektion etabliert und an Patienten für TDM angewandt. Durch Analyse von 280 Patientenproben wurde herausgefunden, dass Duloxetin-Konzentrationen von 60 bis 120 ng/ml mit gutem klinischen Ansprechen und einem geringen Risiko für Nebenwirkungen einhergingen. Bezüglich seines Interaktionspotentials erwies sich Duloxetin im Vergleich zu anderen Antidepressiva als schwacher Inhibitor des Cytochrom P450 (CYP) Isoenzyms 2D6. Es gab keinen Hinweis auf eine klinische Relevanz. Im zweiten Schritt sollte eine Methode entwickelt werden, mit der möglichst viele unterschiedliche Antidepressiva einschließlich deren Metaboliten messbar sind. Dazu wurde eine flüssigchromatographische Methode (HPLC) mit Ultraviolettspektroskopie (UV) entwickelt, mit der die quantitative Analyse von zehn antidepressiven und zusätzlich zwei antipsychotischen Substanzen innerhalb von 25 Minuten mit ausreichender Präzision und Richtigkeit (beide über 85%) und Sensitivität erlaubte. Durch Säulenschaltung war eine automatisierte Analyse von Blutplasma oder –serum möglich. Störende Matrixbestandteile konnten auf einer Vorsäule ohne vorherige Probenaufbereitung abgetrennt werden. Das kosten- und zeiteffektive Verfahren war eine deutliche Verbesserung für die Bewältigung von Proben im Laboralltag und damit für das TDM von Antidepressiva. Durch Analyse des klinischen Einsatzes von TDM wurden eine Reihe von Anwendungsfehlern identifiziert. Es wurde deshalb versucht, die klinische Anwendung des TDM von Antidepressiva durch die Umstellung von einer weitgehend händischen Dokumentation auf eine elektronische Bearbeitungsweise zu verbessern. Im Rahmen der Arbeit wurde untersucht, welchen Effekt man mit dieser Intervention erzielen konnte. Dazu wurde eine Labor-EDV eingeführt, mit der der Prozess vom Probeneingang bis zur Mitteilung der Messergebnisse auf die Stationen elektronisch erfolgte und die Anwendung von TDM vor und nach der Umstellung untersucht. Die Umstellung fand bei den behandelnden Ärzten gute Akzeptanz. Die Labor-EDV erlaubte eine kumulative Befundabfrage und eine Darstellung des Behandlungsverlaufs jedes einzelnen Patienten inklusive vorhergehender Klinikaufenthalte. Auf die Qualität der Anwendung von TDM hatte die Implementierung des Systems jedoch nur einen geringen Einfluss. Viele Anforderungen waren vor und nach der Einführung der EDV unverändert fehlerhaft, z.B. wurden häufig Messungen vor Erreichen des Steady State angefordert. Die Geschwindigkeit der Bearbeitung der Proben war im Vergleich zur vorher händischen Ausführung unverändert, ebenso die Qualität der Analysen bezüglich Richtigkeit und Präzision. Ausgesprochene Empfehlungen hinsichtlich der Dosierungsstrategie der angeforderten Substanzen wurden häufig nicht beachtet. Verkürzt wurde allerdings die mittlere Latenz, mit der eine Dosisanpassung nach Mitteilung des Laborbefundes erfolgte. Insgesamt ist es mit dieser Arbeit gelungen, einen Beitrag zur Verbesserung des Therapeutischen Drug Monitoring von Antidepressiva zu liefern. In der klinischen Anwendung sind allerdings Interventionen notwendig, um Anwendungsfehler beim TDM von Antidepressiva zu minimieren.
Resumo:
In der vorgelegten Doktorarbeit werden Experimente vorgestellt, die an einem einzelnen Proton in einer Penningfalle durchgeführt worden sind. Die Eigenbewegung eines isoliert gespeicherten, freien Protons konnte elektronisch durch Kopplung an einen Resonanzschwingkreis nachgewiesen werden. Dies stellt eine nicht-destruktive Messung dar, d. h. das Teilchen geht während der Messung nicht verloren. Die freie Zyklotronfrequenz, die aus den drei gemessenen Eigenfrequenzen hervorgeht, ist eine von zwei zur Bestimmung des magnetischen Moments notwendigen Frequenzen. So wird im Gegensatz zu den existierenden Arbeiten eine direkte Bestimmung des g-Faktors ermöglicht. Planung, Entwicklung und Inbetriebnahme des experimentellen Aufbaus wurden im Rahmen dieser Arbeit durchgeführt, womit eine Messgenauigkeit von 10-7 erreicht wurde. Die dabei zu bewältigenden technischen Herausforderungen zur Bestimmung der zweiten Frequenz (der Larmorfrequenz) ergeben sich aus der Kleinheit des magnetischen Moments. Bei dem für diese Messung benötigten Spinzustand des Teilchens handelt es sich um einen internen Freiheitsgrad, der nur über eine Kopplung des magnetischen Moments an die Eigenbewegung bestimmt werden kann. Eine neuartige, hybride Penningfalle wird in dieser Arbeit vorgestellt, die als Quantensprung-Spektrometer die Spininformation auf die Eigenbewegung abbildet. Damit liegt der aus der magnetischen Kopplung resultierende Frequenzunterschied in den beiden Spinzuständen erstmalig in einem elektronisch detektierbaren Bereich.
Resumo:
Eine wichtige Grundlage kognitiver Prozesse ist die Fähigkeit, Informationen über einen gewissen Zeitraum hinweg verfügbar zu halten, um diese zur Steuerung zielgerichteten Verhaltens zu nutzen. Eine interessante Frage ist, auf Basis welcher Informationen motorische Handlungen wiederholt werden bzw. wie Bewegungen im Kurzzeitgedächtnis gespeichert werden, um sie genau reproduzieren zu können. Diese Frage wurde in sieben Experimenten anhand eines Interferenzparadigmas untersucht, bei dem die Versuchspersonen am PC per Maus eine kurze Bewegung ausführten und nach einem Behaltensintervall wiedergaben. Im Behaltensintervall mussten zusätzlich Aufgaben unterschiedlicher Modalitäten bearbeitet werden, die Aufschluss über das Speicherformat von Bewegungen geben. Anhand einer qualitativen und quantitativen Datenauswertung konnten Aussagen über resultat- und prozessbezogene Aspekte bei motorischen Arbeitsgedächtnisaufgaben getroffen werden. Die Ergebnisse sprechen dafür, dass bei der Lösung einer motorischen Arbeitsgedächtnisaufgabe sowohl visuelle als auch kinästhetische Hinweisreize (so genannte Cues) berücksichtigt werden. Diese Cues werden in einem redundanten Format gespeichert, d. h. auch Informationen, die nicht zwingend zur Lösung der Aufgabe notwendig sind, werden vom kognitiven System herangezogen. Diese redundante Speicherung dient der Stabilisierung der internen Bewegungsrepräsentation, die unter anderem auch Informationen über Geschwindigkeitsparameter enthält. Es zeigt sich, dass automatisch ablaufende kognitive Mechanismen bei der Aufgabenlösung eine entscheidende Rolle spielen. Dabei konnten aufgabenspezifische Strategien, wie etwa die Optimierung der Arbeitsabläufe, aber auch generelle Mechanismen, nämlich Redundanz sowie Konstruktions- und Rekonstruktionsmechanismen bei der Bewegungsplanung, beobachtet werden. Die Ergebnisse werfen die Frage auf, ob es sich bei den untersuchten Prozessen tatsächlich um Arbeitsgedächtnisprozesse der kurzzeitigen Speicherung handelt, oder ob die beobachteten Phänomene allein durch motorische Planung und Kontrolle zu erklären sind. Die bisher gefundenen Ergebnisse regen ferner dazu an, bisherige strukturelle Arbeitsgedächtnismodelle, wie etwa das klassische Modell von Baddeley und Hitch (1974), um prozessorientierte Aspekte zu erweitern.
Resumo:
Die vorliegende Handreichung versteht sich als Hilfestellung bei der Vermittlung von Kompetenzen und deren Bewertung in der Hochschullehre – sowohl auf der Ebene von Veranstaltungstypen als auch von Prüfungen – mit dem Ziel, Lehrende bei der Planung von Studiengängen und einzelnen Veranstaltungen zu unterstützen. Sie gliedert sich in drei Teile: Im ersten Teil werden die verschiedenen universitären Veranstaltungsformen dargestellt. Einer Beschreibung der jeweiligen Veranstaltungsform folgt eine grafische Aufschlüsselung der primär vermittelten Kompetenzarten. Zusätzlich werden veranstaltungsspezifische Beispiele für hochschuldidaktische Methoden zur Optimierung des Lehr-/Lernprozesses und des Learning Outcome aufgeführt, die zur Planung und Durchführung herangezogen werden können. Abschließend werden mögliche geeignete Prüfungsformen vorgeschlagen. Der zweite Teil widmet sich dem Zusammenspiel von Prüfungen und Kompetenzen. Ziel ist es darzustellen, welche Prüfungsformen sich besonders für die Bewertung von Kenntnissen im Hinblick auf einzelne Kompetenzen eignen. Die vorgestellten hochschuldidaktischen Methoden werden im dritten Teil der Handreichung näher beschrieben, wobei besonders auf deren Potenzial für die Vermittlung der einzelnen Kompetenzen eingegangen wird.
Resumo:
Im Juli 2009 wurde am Mainzer Mikrotron (MAMI) erstmal ein Experiment durchgeführt, bei dem ein polarisiertes 3He Target mit Photonen im Energiebereich von 200 bis 800 MeV untersucht wurde. Das Ziel dieses Experiments war die Überprüfung der Gerasimov-Drell-Hearn Summenregel am Neutron. Die Verwendung der Messdaten welche mit dem polarisierten 3He Target gewonnen wurden, geben - im Vergleich mit den bereits existieren Daten vom Deuteron - aufgrund der Spin-Struktur des 3He einen komplementären und direkteren Zugang zum Neutron. Die Messung des totalen helizitätsabhängigen Photoabsorptions-Wirkungsquerschnitts wurde mittels eines energiemarkierten Strahls von zirkular polarisierten Photonen, welcher auf das longitudinal polarisierte 3He Target trifft, durchgeführt. Als Produktdetektoren kamen der Crystal Ball (4π Raumabdeckung), TAPS (als ”Vorwärtswand”) sowie ein Schwellen-Cherenkov-Detektor (online Veto zur Reduktion von elektromagnetischen Ereignissen) zum Einsatz. Planung und Aufbau der verschiedenen komponenten Teile des 3He Experimentaufbaus war ein entscheidender Teil dieser Dissertation und wird detailliert in der vorliegenden Arbeit beschrieben. Das Detektorsystem als auch die Analyse-Methoden wurden durch die Messung des unpolarisierten, totalen und inklusiven Photoabsoprtions-Wirkungsquerschnitts an flüssigem Wasserstoff getestet. Hierbei zeigten die Ergebnisse eine gute Übereinstimmung mit bereits zuvor publizierten Daten. Vorläufige Ergebnisse des unpolarisierten totalen Photoabsorptions-Wirkungsquerschnitts sowie der helizitätsabhängige Unterschied zwischen Photoabsorptions-Wirkungsquerschnitten an 3He im Vergleich zu verschiedenen theoretischen Modellen werden vorgestellt.
Resumo:
Die vorliegende Arbeit befasst sich mit der Erlösdiversifizierung privater deutscher Free-TV-Unternehmen. Im Zentrum stehen dabei die Entwicklung eines Nutzwerttheo-rie-basierten Modells zur Bestimmung attraktiver Diversifikationsfelder und dessen empirische Überprüfung. Zur Modellbildung werden sowohl der market-based als auch der resource-based View des strategischen Managements berücksichtigt und methodisch integriert. Zunächst werden anhand von Fallstudien der Mediengruppe RTL Deutsch-land und der ProSiebenSat.1 Media AG der strategische Optionsraum bestehend aus 15 Diversifizierungsmärkten identifiziert und die Kernressourcen deutscher Free-TV-Unternehmen untersucht. Aufbauend auf den gewonnenen Erkenntnissen wird das soge-nannte COAT-Diversifizierungsmodell als Rahmenmodell für die Planung und Bewer-tung von Diversifizierungsstrategien entworfen (COAT = Online Content Distribution, Offline Activities und Add-On Services/ Transaction TV). Durch eine ausführliche Be-fragung von 26 hochrangigen Managern, Senderchefs und Branchenbeobachtern der deutschen TV-Industrie wird das entworfene Modell überprüft und die Attraktivität der identifizierten Diversifizierungsmärkte ermittelt. Im Zentrum des Modells und der Ex-pertenbefragung steht die Durchführung einer Nutzwertanalyse, anhand derer zum einen die Marktattraktivität der verschiedenen Diversifizierungsmärkte ermittelt wird (market-based View), und zum anderen die Bedeutung der Kernressourcen eines Free-TV-Unternehmens in den verschiedenen Diversifizierungsmärkten untersucht wird (ressour-ce-based View). Hierzu werden für beide Dimensionen entsprechende Subkriterien de-finiert und eine Nutzwertbewertung für jedes Kriterium in jedem der 15 Märkte vorge-nommen. Aus den ermittelten Teilnutzwerten können für jeden untersuchten Markt ein übergreifender marktorientierter Nutzwert NM und ein ressourcenorienterter Nutzwert NR ermittelt werden. Im Resultat lässt sich ein Nutzwert-Portfolio aufspannen, in dem die 15 Diversifizierungsmärkte entsprechend ihrer ressourcen- und marktorientierten Nutzwertkombinationen in vier Gruppen kategorisiert werden: Diversifizierungsmärkte mit 1) sehr hoher Attraktivität, 2) hoher Marktchance, 3) hoher Opportunität oder rn4) geringer Attraktivität. Abschließend werden erste Normstrategien für die einzelnen Diversifizierungskategorien abgeleitet und die Eignung des COAT-Diversifizierungs-modells für die strategische Planung analysiert.rn