757 resultados para Technische Logistik
Resumo:
Motorische Bewegungen werden über die visuelle Rückmeldung auf ihre Genauigkeit kontrolliert und ggf. korrigiert. Über einen technischen Eingriff, wie beispielsweise einer Prismenbrille, kann man eine Differenz zwischen optisch wahrgenommener und haptisch erlebter Umwelt erzeugen, um die Fähigkeiten des visuomotorischen Systems zu testen. In dieser Arbeit wurde eine computergestützte Methode entwickelt, eine solche visuomotorische Differenz zu simulieren. Die Versuchspersonen führen eine ballistische Bewegung mit Arm und Hand aus in der Absicht, ein vorgegebenes Ziel zu treffen. Die Trefferpunkte werden durch einen Computer mit Hilfe eines Digitalisierungstablettes aufgenommen. Die visuelle Umwelt, welche den Versuchspersonen präsentiert wird, ist auf einem Monitor dargestellt. Das Monitorabbild – ein Kreuz auf weißem Hintergrund – betrachten die Testpersonen über einen Spiegel. Dieser ist in einem entsprechenden Winkel zwischen Monitor und Digitalisierungstablett angebracht, so dass das Zielbild auf dem Digitalisierungstablett projiziert wird. Die Testpersonen nehmen das Zielkreuz auf dem Digitalisierungstablett liegend wahr. Führt die Versuchsperson eine Zielbewegung aus, können die aufgenommenen Koordinaten als Punkte auf dem Monitor dargestellt werden und die Testperson erhält über diese Punktanzeige ein visuelles Feedback ihrer Bewegung. Der Arbeitsbereich des Digitalisierungstabletts kann über den Computer eingerichtet und so motorische Verschiebungen simuliert werden. Die verschiedenartigen Möglichkeiten dieses Aufbaus wurden zum Teil in Vorversuchen getestet um Fragestellungen, Methodik und technische Einrichtungen aufeinander abzustimmen. Den Hauptversuchen galt besonderes Interesse an der zeitlichen Verzögerung des visuellen Feedbacks sowie dem intermanuellen Transfer. Hierbei ergaben sich folgende Ergebnisse: ● Die Versuchspersonen adaptieren an eine räumlich verschobene Umwelt. Der Adaptationsverlauf lässt sich mit einer Exponentialfunktion mathematisch berechnen und darstellen. ● Dieser Verlauf ist unabhängig von der Art des visuellen Feedbacks. Die Beobachtung der Handbewegung während der Adaptation zeigt die gleiche Zielabfolge wie eine einfache Punktprojektion, die den Trefferort der Bewegung darstellt. ● Der exponentielle Verlauf der Adaptationsbewegung ist unabhängig von den getesteten zeitlichen Verzögerungen des visuellen Feedbacks. ● Die Ergebnisse des Folgeeffektes zeigen, dass bei zunehmender zeitlicher Verzögerung des visuellen Feedbacks während der Adaptationsphase, die Größe des Folgeeffektwertes geringer wird, d.h. die anhaltende Anpassungsleistung an eine visuomotorische Differenz sinkt. ● Die Folgeeffekte weisen individuelle Eigenheiten auf. Die Testpersonen adaptieren verschieden stark an eine simulierte Verschiebung. Ein Vergleich mit den visuomotorischen Herausforderungen im Vorleben der Versuchspersonen ließ vermuten, dass das visuomotorische System des Menschen trainierbar ist und sich - je nach Trainingszustand – unterschiedlich an wahrgenommene Differenzen anpasst. ● Der intermanuelle Transfer konnte unter verschiedenen Bedingungen nachgewiesen werden. ● Ein deutlich stärkerer Folgeeffekt kann beobachtet werden, wenn die wahrgenommene visuomotorische Differenz zwischen Ziel und Trefferpunkt in eine Gehirnhälfte projiziert wird und der Folgeeffekt mit der Hand erfolgt, welche von dieser Hirnhemisphäre gesteuert wird. Der intermanuelle Transfer wird demnach begünstigt, wenn die visuelle Projektion der Fehlerbeobachtung in die Gehirnhälfte erfolgt, die während der Adaptationsphase motorisch passiv ist.
Resumo:
Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.
Resumo:
Gegenstand der vorliegenden Arbeit ist die Überarbeitung der Richtlinie 89/552/EWG des Rates zur Koordinierung bestimmter Rechts- und Verwaltungsvorschriften der Mitgliedstaaten über die Ausübung der Fernsehtätigkeit, welche aus praktikablen Gründen meist als „(EG-)Fernsehrichtlinie“ bezeichnet wird. Sie bildet den Eckpfeiler der audiovisuellen Politik der EU. Seit Erlass der Fernsehrichtlinie im Jahre 1989 bewirkt der technologische Fortschritt jedoch zunehmend enorme Veränderungen nicht nur im Bereich des klassischen Fernsehens, sondern auch und vor allem im Bereich der neuen Medien. Ausgangspunkt hierfür ist die Verbesserung der Digitaltechnologie, die ihrerseits wiederum technische Konvergenzprozesse begünstigt. Diese Entwicklungen führen nicht nur zu einer Vervielfachung von Übertragungskapazitäten und –techniken, sondern ermöglichen neben neuen Formen audiovisueller Angebote auch die Entstehung neuer Dienste. Unsere Medienlandschaft steht vor „epochalen Umbrüchen“. Im Hinblick auf diese Vorgänge wird seit geraumer Zeit eine Überarbeitung der EG-Fernsehrichtlinie angestrebt, um dem technologischen Fortschritt auch „regulatorisch“ gerecht werden zu können. Diesem Überarbeitungsprozess möchte sich die vorliegende Arbeit widmen, indem sie die Fernsehrichtlinie in einem ersten Teil sowohl inhaltlich wie auch hinsichtlich ihrer Entstehungsgeschichte und der zu ihr ergangenen EuGH-Entscheidungen erläutert. Anschließend werden alle Überarbeitungsvorgänge der Fernsehrichtlinie seit 1997 dargestellt, um sodann die aktuellen Reformansätze analysieren und bewerten zu können. Aus zeitlichen Gründen (der neue Richtlinienvorschlag der Kommission vom 13. Dezember 2005 wurde ca. 2 Wochen vor dem Abgabetermin der Arbeit verabschiedet) sind die Ausführungen zum Entwurf der neuen „Richtlinie über audiovisuelle Mediendienste“ allerdings relativ knapp gehalten.
Resumo:
Der erste experimentelle Test der GDH-Summenregel für das Proton wurde 1998 am MAMI-Beschleuniger der Universität Mainz durchgeführt. Ferner wurde ein Pilot-Experiment mit einem polarisierten Deuteron-Target vorgenommen. Dieselbe Kollaboration führte 2003 ein auf das Deuteron ausgerichtetes Experiment durch mit der Absicht, die GDH-Summenregel für das Neutron zu untersuchen. Der in beiden Experimenten verwendete Aufbau erlaubt nicht nur die Messung des totalen Wirkungsquerschnitts, sondern auch gleichzeitig einzelne Teilreaktionen zu studieren. In dieser Arbeit werden die Daten des Deuteron-Pilot-Experiments von 1998 analysiert. Desweiteren wird eine Studie der Helizitätsabhängigkeit der differenziellen Wirkungsquerschnitte für drei Pion-Photoproduktionskanäle des Deuterons in der oberen Hälfte der Delta-Resonanz präsentiert. Diese Ergebnisse werden mit einem theoretischen Modell verglichen. Dabei wurde eine hinreichend gute Übereinstimmung für die unpolarisierten Reaktionen gefunden, während für die polarisierten Kanäle kleinere Diskrepanzen beobachtet wurden. Der Targetpolarisationsgrad ist einer der relevanten Parameter, der für eine absolute Normalisierung der Wirkungsquerschnitte notwendig ist. Die Analyse dieses Parameters für die 2003er Daten wird in der vorliegenden Arbeit vorgestellt. Zur Zeit ist in Mainz ein Frozen-Spin-Target im Bau. Es wird als Target für polarisierte Protonen oder polarisierte Deuteronen für zukünftige Experimente mit dem Crystal Ball zur Verfügung stehen. Die Vorbereitungen der verschiedenen Subsysteme dieses Aufbaus stellten einen wichtigen Teil dieser Arbeit dar. Die fundamentalen Grundlagen der Methode und deren technische Umsetzung, sowie der momentane Status der Aufbauarbeiten am Target werden im Detail präsentiert.
Resumo:
N-Vinylamidderivate sind eine toxikologische unbedenkliche Monomerklasse. Mit diesen Monomeren wurden verschiedene technische Anwendungsgebiete im Bereich der Kern-Schale-Partikel und der fließfähigen und vernetzten Hydrogele untersucht. Kern-Schale-Partikel Für die Synthese von Kern-Schale-Partikeln wurden die N-Vinylamidderivate als Schalenpolymere auf kommerziellen Poly(styrol-stat.-butadien)-Kernpartikeln aufpolymerisiert. Mit Hilfe verschiedener Untersuchungsmethoden (DLS, SEM, FFF, Ultrazentrifuge) wurde die Kern-Schale-Strukturbildung und die Effizienz der Pfropfungsreaktion untersucht und eine erfolgreiche Synthese der Kern-Schale-Partikel belegt. Durch die gezielte Modifizierung des Schalenpolymers wurde ein kationisches, organisches Mikropartikelsystem entwickelt, charakterisiert und auf die Eignung als „Duales Flockungsmittel“ untersucht. Diese Versuche belegten die Eignung der modifizierten Kern-Schale-Partikel als „Duales Flockungsmittel“ und bieten eine Alternative zu kommerziell verwendeten Retentionsmitteln. Außerdem wurden die filmbildenden Eigenschaften der Poly(Nvinylformamid)-Kern-Schale-Dispersionen untersucht. Nach der Verfilmung der Dispersionen wurden transparente und harte Filme erhalten. Die Auswirkungen auf die mechanischen Eigenschaften der Filme wurden durch die Variation verschiedener Parameter eingehend studiert. Auf der Basis dieser Partikel wurden selbstvernetzende Dispersionssysteme entwickelt. Das P(VFA)-Schalenpolymer wurde teilweise hydrolysiert und die generierten freien Aminogruppen des Poly(N-vinylamins) durch eine Michael-Addition mit einem divinylfunktionalisierten Acrylat (Tetraethylenglykoldiacrylat) vernetzt. Untersuchungen zur mechanischen Beständigkeit der Filme zeigten bei geringen Vernetzungsgraden eine deutliche Optimierung der maximalen Zugbelastungen. Die Untersuchungen belegten, dass die Verwendung des selbstvernetzenden Dispersionssystems als Dispersion für eine Polymerbeschichtung möglich ist. Hydrogele Die Synthese von fließfähigen und quervernetzten Hydrogelen erfolgte auf der Basis verschiedener NVinylamide. Mit Hilfe geeigneter Vernetzer wurden feste Hydrogelplatten synthetisiert und für die Auftrennung von DNA-Sequenzen mit Hilfe der Gelelektrophorese verwendet. Scharfe und gute Auftrennung der verschiedenen „DNA-Ladder Standards“ wurden durch die Variation des Vernetzeranteils, der Polymerzusammensetzung, der angelegten Spannung und der Verweilzeit in der Gelelektrophoresekammer mit P(MNVA)-Hydrogelplatten erreicht. Fließfähige und quervernetzte Elektrolytgele auf Poly-(N-vinylamid)-Basis wurden in wartungsfreien pHElektroden eingesetzt. Die Eignung dieser Hydrogele wurden in Bezug auf die Anwendung eingehend charakterisiert. Elektroden befüllt mit Poly(N-vinylamid)-Gelen wurden in Dauerbelastungsexperimenten, direkt mit kommerziellen pHElektroden verglichen. Es konnte gezeigt werden, dass die fließfähigen und quervernetzten Poly-(N-vinylamid)-Elektrolytgele in ihren Messeigenschaften gleichwertige bzw. bessere Potentialstabilitäten aufweisen als kommerzielle Referenzelektroden. Die Hydrogele auf Basis von Poly(N-vinylamidderivaten) boten für die beiden getesteten Anwendungen eine toxikologisch unbedenkliche Alternative zu Poly(acrylamid)-Gelen. In dieser Arbeit konnten die durchgeführten Untersuchungen belegen, dass NVinylamide eine attraktive Monomerklasse ist, die erfolgreich in vielen technischen Anwendungen einsetzbar ist.
Resumo:
Die Elementmassenspektrometrie wurde in den letzten Jahren sehr erfolgreich zur Aufklärung verschiedener Fragestellungen in der Bioanalytik eingesetzt. Hierbei spielen vor allem Kopplungstechniken von Trennmethoden wie der Flüssigchromatographie (LC) oder der Kapillarelektrophorese (CE) mit der induktiv gekoppelten Plasma-Massenspektrometrie (ICP-MS) als Multielementdetektor mit hervorragenden Quantifizierungseigenschaften eine entscheidende Rolle bei der Untersuchung von Biopolymeren und deren Wechselwirkung mit verschiedenen Metallen. So wurden beispielsweise verschiedene Methoden für die Trennung und Detektion von Metalloproteinen oder DNA-Metall-Addukten in unterschiedlichen Probenmaterialien entwickelt. Die traditionelle und leistungsstärkste Trennmethode für Biopolymere aller Art, die Gelelektrophorese, wurde jedoch bislang nicht in einem Online-Verfahren an die ICP-MS gekoppelt, um solche Fragestellungen zu bearbeiten. Verschiedene Versuche auf der Basis der Laserablation wurden in diese Richtung unternommen, wobei diese Techniken als sehr umständlich und zeitaufwändig anzusehen sind. In dieser Arbeit wird erstmals die technische Realisierung einer Online-Kopplung der Gelelektrophorese mit der ICP-MS beschrieben. Das System basiert auf einem Prinzip aus der präparativen Gelelektrophorese, in welcher eine kontinuierliche Elution der getrennten Komponenten aus dem Gel während der laufenden Elektrophorese durchgeführt wird. Die eluierten Komponenten werden mit dem Elutionspuffer direkt in das Zerstäubersystem des ICP-MS geführt. Die ersten Untersuchungen wurden am Beispiel der Fragemente von doppelsträngiger DNA (dsDNA) durchgeführt. Kommerziell erhältliche Standardlösungen wurden mit der Online-GE-ICP-MS mittels Detektion von 31P an einem hochauflösenden Massenspektrometer mit einer Massenauflösung von 4000 analysiert. Die Trennbedingungen (z.B. pH-Wert oder Ionenstärke der Pufferlösungen) wurden für die Trennung von dsDNA-Fragementen in Agarosegelen optimiert und auf verschiedene dsDNA-Fragmente angewandt. In einem nächsten Schritt wurden die Quantifizierungsmöglichkeiten für Biopolymere untersucht. Sehr kleine Mengen an dsDNA konnten mit einer Präzision von weniger als 3% quantifiziert werden. Hierfür kamen verschiedene Möglichkeiten der externen Kalibration zum Einsatz, wie der Kalibration mit einem Phosphat-Standard oder einem kommerziell erhältlichen quantitativen dsDNA-Standard. Um das Potenzial der entwickelten Methode für die Untersuchung von Biopolymer-Metall-Wechselwirkungen zu demonstrieren, wurden Oligonukleotide mit Cisplatin unter physiologischen Bedingungen inkubiert und die Reaktionsprodukte mit der Online-GE-ICP-MS mittels 31P- und 195Pt-Detektion untersucht. Verschiedene Cisplatin-Oligonukleotid-Addukte konnten auf diese Weise beobachtet werden, was zur Identifizierung die Anwendung der MALDI-TOF-MS als komplementärer Form der Massenspektrometrie notwendig machte. Abschließend wurde die Isotopenverdünnungsanalyse zum Zweck der Quantifizierung herangezogen.
Resumo:
In der vorliegenden Arbeit werden die r-Prozesskerne rund um den N=82-Schalenabschluß untersucht. Dabei gelang es die bisher unbekannten Halbwertszeiten und Pn-Werte der Antimonisotope 137-139-Sb und von 139-Te zu messen. Des Weiteren wurden die Ergebnisse von Shergur et. al. zu extrem neutronenreichen Zinnisotopen (137,138-Sn) mit neuen Messungen untermauert und verbessert. Alle erhaltenen Ergebnisse werden mit entsprechenden Modellrechnungen verglichen und ihr Einfluss auf moderne Netzwerkrechnungen zum r-Prozess diskutiert. Des Weiteren gelang erstmalig die Aufnahmen von gamma-spektroskopischen Daten für das r-Prozessnuklid 136-Sn in Singlespektren. Aufgrund der hinlänglich bekannten Probleme mit Isobarenkontaminationen für Ionenstrahlen von sehr exotischen Molekülen an ISOL-Einrichtungen werden unterschiedliche technische Entwicklungen zur Verbesserung der Strahlqualität aufgezeigt. Ein besonderer Schwerpunkt liegt hier auf der neu eingeführten Technik der molekularen Seitenbänder an Massenseparatoren. Hier gelang es durch gezielte Zugabe von Schwefel in das Target ein starke SnS(+)-Seitenband zu etablieren und so bei guter Strahlintensität eine deutliche Reduktion des Isobarenuntergrunds zu erreichen. Ebenso werden die Möglichkeiten einer temperaturkontrollierten Quarztransferline zwischen Target und Ionenquelle zur Minimierung von Kontaminationen bespro-chen. Zur Verbesserung der Selektivität von Experimenten an sehr neutronenreichen Elementen wurde ein Detektorsystem zur n,gamma-Koinzidenzmessung entwickelt. Im Gegensatz zu früheren Versuchen dieser Art, gelang es durch eine entsprechende neue Elektronik striktere Koinzidenzbedingungen zu realisieren und so das Koinzidenzfenster deutlich zu verkleinern.
Resumo:
The arid regions are dominated to a much larger degree than humid regions by major catastrophic events. Although most of Egypt lies within the great hot desert belt; it experiences especially in the north some torrential rainfall, which causes flash floods all over Sinai Peninsula. Flash floods in hot deserts are characterized by high velocity and low duration with a sharp discharge peak. Large sediment loads may be carried by floods threatening fields and settlements in the wadis and even people who are living there. The extreme spottiness of rare heavy rainfall, well known to desert people everywhere, precludes any efficient forecasting. Thus, although the limitation of data still reflects pre-satellite methods, chances of developing a warning system for floods in the desert seem remote. The relatively short flood-to-peak interval, a characteristic of desert floods, presents an additional impediment to the efficient use of warning systems. The present thesis contains introduction and five chapters, chapter one points out the physical settings of the study area. There are the geological settings such as outcrop lithology of the study area and the deposits. The alluvial deposits of Wadi Moreikh had been analyzed using OSL dating to know deposits and palaeoclimatic conditions. The chapter points out as well the stratigraphy and the structure geology containing main faults and folds. In addition, it manifests the pesent climate conditions such as temperature, humidity, wind and evaporation. Besides, it presents type of soils and natural vegetation cover of the study area using unsupervised classification for ETM+ images. Chapter two points out the morphometric analysis of the main basins and their drainage network in the study area. It is divided into three parts: The first part manifests the morphometric analysis of the drainage networks which had been extracted from two main sources, topographic maps and DEM images. Basins and drainage networks are considered as major influencing factors on the flash floods; Most of elements were studied which affect the network such as stream order, bifurcation ratio, stream lengths, stream frequency, drainage density, and drainage patterns. The second part of this chapter shows the morphometric analysis of basins such as area, dimensions, shape and surface. Whereas, the third part points the morphometric analysis of alluvial fans which form most of El-Qaá plain. Chapter three manifests the surface runoff through rainfall and losses analysis. The main subject in this chapter is rainfall which has been studied in detail; it is the main reason for runoff. Therefore, all rainfall characteristics are regarded here such as rainfall types, distribution, rainfall intensity, duration, frequency, and the relationship between rainfall and runoff. While the second part of this chapter concerns with water losses estimation by evaporation and infiltration which are together the main losses with direct effect on the high of runoff. Finally, chapter three points out the factors influencing desert runoff and runoff generation mechanism. Chapter four is concerned with assessment of flood hazard, it is important to estimate runoff and tocreate a map of affected areas. Therefore, the chapter consists of four main parts; first part manifests the runoff estimation, the different methods to estimate runoff and its variables such as runoff coefficient lag time, time of concentration, runoff volume, and frequency analysis of flash flood. While the second part points out the extreme event analysis. The third part shows the map of affected areas for every basin and the flash floods degrees. In this point, it has been depending on the DEM to extract the drainage networks and to determine the main streams which are normally more dangerous than others. Finally, part four presets the risk zone map of total study area which is of high inerest for planning activities. Chapter five as the last chapter concerns with flash flood Hazard mitigation. It consists of three main parts. First flood prediction and the method which can be used to predict and forecast the flood. The second part aims to determine the best methods which can be helpful to mitigate flood hazard in the arid zone and especially the study area. Whereas, the third part points out the development perspective for the study area indicating the suitable places in El-Qaá plain for using in economic activities.
Resumo:
Obwohl die funktionelle Magnetresonanztomographie (fMRI) interiktaler Spikes mit simultaner EEG-Ableitung bei Patienten mit fokalen Anfallsleiden seit einigen Jahren zur Lokalisation beteiligter Hirnstrukturen untersucht wird, ist sie nach wie vor eine experimentelle Methode. Um zuverlässig Ergebnisse zu erhalten, ist insbesondere die Verbesserung des Signal-zu-Rausch-Verhältnisses in der statistischen Bilddatenauswertung von Bedeutung. Frühere Untersuchungen zur sog. event-related fMRI weisen auf einen Zusammenhang zwischen Häufigkeit von Einzelreizen und nachfolgender hämodynamischer Signalantwort in der fMRI hin. Um einen möglichen Einfluss der Häufigkeit interiktaler Spikes auf die Signalantwort nachzuweisen, wurden 20 Kinder mit fokaler Epilepsie mit der EEG-fMRI untersucht. Von 11 dieser Patienten konnten die Daten ausgewertet werden. In einer zweifachen Analyse mit dem Softwarepaket SPM99 wurden die Bilddaten zuerst ausschließlich je nach Auftreten interiktaler Spikes der „Reiz“- oder „Ruhe“-Bedingung zugeordnet, unabhängig von der jeweiligen Anzahl der Spikes je Messzeitpunkt (on/off-Analyse). In einem zweiten Schritt wurden die „Reiz“- Bedingungen auch differenziert nach jeweiliger Anzahl einzelner Spikes ausgewertet (häufigkeitskorrelierte Analyse). Die Ergebnisse dieser Analysen zeigten bei 5 der 11 Patienten eine Zunahme von Sensitivität und Signifikanzen der in der fMRI nachgewiesenen Aktivierungen. Eine höhere Spezifität konnte hingegen nicht gezeigt werden. Diese Ergebnisse weisen auf eine positive Korrelation von Reizhäufigkeit und nachfolgender hämodynamischer Antwort auch bei interiktalen Spikes hin, welche für die EEG-fMRI nutzbar ist. Bei 6 Patienten konnte keine fMRI-Aktivierung nachgewiesen werden. Mögliche technische und physiologische Ursachen hierfür werden diskutiert.
Resumo:
Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.
Resumo:
Die vorliegende Dissertation behandelt die Gesamtgesteinsanalyse stabiler Siliziumisotope mit Hilfe einer „Multi Collector-ICP-MS“. Die Analysen fanden in Kooperation mit dem „Royal Museum for Central Africa“ in Belgien statt. Einer der Schwerpunkte des ersten Kapitels ist die erstmalige Analyse des δ30Si –Wertes an einem konventionellen Nu PlasmaTM „Multi-Collector ICP-MS“ Instrument, durch die Eliminierung der den 30Si “peak” überlagernden 14N16O Interferenz. Die Analyse von δ30Si wurde durch technische Modifikationen der Anlage erreicht, welche eine höherer Massenauflösung ermöglichten. Die sorgsame Charakterisierung eines adäquaten Referenzmaterials ist unabdingbar für die Abschätzung der Genauigkeit einer Messung. Die Bestimmung der „U.S. Geological Survey“ Referenzmaterialien bildet den zweiten Schwerpunkt dieses Kapitales. Die Analyse zweier hawaiianischer Standards (BHVO-1 and BHVO-2), belegt die präzise und genaue δ30Si Bestimmung und bietet Vergleichsdaten als Qualitätskontrolle für andere Labore. Das zweite Kapitel befasst sich mit kombinierter Silizium-/Sauerstoffisotope zur Untersuchung der Entstehung der Silizifizierung vulkanischer Gesteine des „Barberton Greenstone Belt“, Südafrika. Im Gegensatz zu heute, war die Silizifizierung der Oberflächennahen Schichten, einschließlich der „Chert“ Bildung, weitverbreitete Prozesse am präkambrischen Ozeanboden. Diese Horizonte sind Zeugen einer extremen Siliziummobilisierung in der Frühzeit der Erde. Dieses Kapitel behandelt die Analyse von Silizium- und Sauerstoffisotopen an drei unterschiedlichen Gesteinsprofilen mit unterschiedlich stark silizifizierten Basalten und überlagernden geschichteten „Cherts“ der 3.54, 3.45 und 3.33 Mill. Jr. alten Theespruit, Kromberg und Hooggenoeg Formationen. Siliziumisotope, Sauerstoffisotope und die SiO2-Gehalte demonstrieren in allen drei Gesteinsprofilen eine positive Korrelation mit dem Silizifizierungsgrad, jedoch mit unterschiedlichen Steigungen der δ30Si-δ18O-Verhältnisse. Meerwasser wird als Quelle des Siliziums für den Silizifizierungsprozess betrachtet. Berechnungen haben gezeigt, dass eine klassische Wasser-Gestein Wechselwirkung die Siliziumisotopenvariation nicht beeinflussen kann, da die Konzentration von Si im Meerwasser zu gering ist (49 ppm). Die Daten stimmen mit einer Zwei-Endglieder-Komponentenmischung überein, mit Basalt und „Chert“ als jeweilige Endglieder. Unsere gegenwärtigen Daten an den „Cherts“ bestätigen einen Anstieg der Isotopenzusammensetzung über der Zeit. Mögliche Faktoren, die für unterschiedliche Steigungen der δ30Si-δ18O Verhältnisse verantwortlich sein könnten sind Veränderungen in der Meerwasserisotopie, der Wassertemperatur oder sekundäre Alterationseffekte. Das letzte Kapitel beinhaltet potentielle Variationen in der Quellregion archaischer Granitoide: die Si-Isotopen Perspektive. Natriumhaltige Tonalit-Trondhjemit-Granodiorit (TTG) Intrusiva repräsentieren große Anteile der archaischen Kruste. Im Gegensatz dazu ist die heutige Kruste kaliumhaltiger (GMS-Gruppe: Granit-Monzonite-Syenite). Prozesse, die zu dem Wechsel von natriumhaltiger zu kaliumhaltiger Kruste führten sind die Thematik diesen Kapitels. Siliziumisotopenmessungen wurden hier kombiniert mit Haupt- und Spurenelementanalysen an unterschiedlichen Generationen der 3.55 bis 3.10 Mill. Yr. alten TTG und GMS Intrusiva aus dem Arbeitsgebiet. Die δ30Si-Werte in den unterschiedlichen Plutonit Generationen zeigen einen leichten Anstieg der Isotopie mit der Zeit, wobei natriumhaltige Intrusiva die niedrigste Si-Isotopenzusammensetzung aufweisen. Der leichte Anstieg in der Siliziumisotopenzusammensetzung über die Zeit könnte auf unterschiedliche Temperaturbedingungen in der Quellregion der Granitoide hinweisen. Die Entstehung von Na-reichen, leichten d30Si Granitoiden würde demnach bei höheren Temperaturen erfolgen. Die Ähnlichkeit der δ30Si-Werte in archaischen K-reichen Plutoniten und phanerozoischen K-reichen Plutoniten wird ebenfalls deutlich.
Resumo:
Nuclear masses are an important quantity to study nuclear structure since they reflect the sum of all nucleonic interactions. Many experimental possibilities exist to precisely measure masses, out of which the Penning trap is the tool to reach the highest precision. Moreover, absolute mass measurements can be performed using carbon, the atomic-mass standard, as a reference. The new double-Penning trap mass spectrometer TRIGA-TRAP has been installed and commissioned within this thesis work, which is the very first experimental setup of this kind located at a nuclear reactor. New technical developments have been carried out such as a reliable non-resonant laser ablation ion source for the production of carbon cluster ions and are still continued, like a non-destructive ion detection technique for single-ion measurements. Neutron-rich fission products will be available by the reactor that are important for nuclear astrophysics, especially the r-process. Prior to the on-line coupling to the reactor, TRIGA-TRAP already performed off-line mass measurements on stable and long-lived isotopes and will continue this program. The main focus within this thesis was on certain rare-earth nuclides in the well-established region of deformation around N~90. Another field of interest are mass measurements on actinoids to test mass models and to provide direct links to the mass standard. Within this thesis, the mass of 241-Am could be measured directly for the first time.
Resumo:
Die Kernmagnetresonanz (NMR) ist eine vielseitige Technik, die auf spin-tragende Kerne angewiesen ist. Seit ihrer Entdeckung ist die Kernmagnetresonanz zu einem unverzichtbaren Werkzeug in unzähligen Anwendungen der Physik, Chemie, Biologie und Medizin geworden. Das größte Problem der NMR ist ihre geringe Sensitivtät auf Grund der sehr kleinen Energieaufspaltung bei Raumtemperatur. Für Protonenspins, die das größte magnetogyrische Verhältnis besitzen, ist der Polarisationsgrad selbst in den größten verfügbaren Magnetfeldern (24 T) nur ~7*10^(-5).rnDurch die geringe inhärente Polarisation ist folglich eine theoretische Sensitivitätssteigerung von mehr als 10^4 möglich. rnIn dieser Arbeit wurden verschiedene technische Aspekte und unterschiedliche Polarisationsagenzien für Dynamic Nuclear Polarization (DNP) untersucht.rnDie technische Entwicklung des mobilen Aufbaus umfasst die Verwendung eines neuen Halbach Magneten, die Konstruktion neuer Probenköpfe und den automatisierten Ablauf der Experimente mittels eines LabVIEW basierten Programms. Desweiteren wurden zwei neue Polarisationsagenzien mit besonderen Merkmalen für den Overhauser und den Tieftemperatur DNP getestet. Zusätzlich konnte die Durchführbarkeit von NMR Experimenten an Heterokernen (19F und 13C) im mobilen Aufbau bei 0,35 T gezeigt werden. Diese Ergebnisse zeigen die Möglichkeiten der Polarisationstechnik DNP auf, wenn Heterokerne mit einem kleinen magnetogyrischen Verhältnis polarisiert werden müssen.rnDie Sensitivitätssteigerung sollte viele neue Anwendungen, speziell in der Medizin, ermöglichen.
Resumo:
La tesi analizza, nel quadro del secondo dopoguerra, quattro casi studio scelti tra le opere di ricostruzione dell’architetto Josef Wiedemann (1910-2001) nel centro di Monaco di Baviera: Odeon (1951-1952), Alte Akademie (1951-1955), Siegestor (1956-1958) e Glyptothek (1961-1972). L’architetto si occupa di opere simbolo della città di Monaco, affrontando la loro ricostruzione come un tema fondante per la storia e l’identità del popolo bavarese, ma soprattutto come un’occasione per definire un metodo d’intervento sulle rovine della guerra. Il suo lavoro è caratterizzato infatti per la ricerca costante di una sintesi tra interesse per la conservazione dell’antico e apertura al nuovo; ispirandosi all’insegnamento del maestro Hans Döllgast, Wiedemann traccia una nuova originale strada per l’intervento sull’antico, segnata da una profonda capacità tecnico-progettuale e dall'attenzione alle nuove esigenze a cui deve rispondere un’architettura contemporanea. Partendo dai suoi scritti e dalle sue opere, si può rilevare un percorso coerente che, partendo dalla conoscenza della storia dell'edificio, ripercorrendone l’evoluzione dallo stato che potremmo definire “originario” allo stato di rovina, giunge a produrre nel progetto realizzato una sintesi tra il passato e il futuro. L'architetto, nella visione di Wiedemann, è chiamato a un compito di grande responsabilità: conoscere per progettare (o ri-progettare) un edificio che porta impressi su di sé i segni della propria storia. Nel metodo che viene messo progressivamente a punto operando nel corpo vivo dei monumenti feriti dalla guerra, è percepibile fino a distinguerlo chiaramente l’interesse e l’influenza del dibattito italiano sul restauro. La conservazione “viva” dell'esistente, così come viene definita da Wiedemann stesso, si declina in modo diverso per ogni caso particolare, approdando a risultati differenti tra loro, ma che hanno in comune alcuni principi fondamentali: conoscere, ricordare, conservare e innovare.
Resumo:
In this thesis we develop further the functional renormalization group (RG) approach to quantum field theory (QFT) based on the effective average action (EAA) and on the exact flow equation that it satisfies. The EAA is a generalization of the standard effective action that interpolates smoothly between the bare action for krightarrowinfty and the standard effective action rnfor krightarrow0. In this way, the problem of performing the functional integral is converted into the problem of integrating the exact flow of the EAA from the UV to the IR. The EAA formalism deals naturally with several different aspects of a QFT. One aspect is related to the discovery of non-Gaussian fixed points of the RG flow that can be used to construct continuum limits. In particular, the EAA framework is a useful setting to search for Asymptotically Safe theories, i.e. theories valid up to arbitrarily high energies. A second aspect in which the EAA reveals its usefulness are non-perturbative calculations. In fact, the exact flow that it satisfies is a valuable starting point for devising new approximation schemes. In the first part of this thesis we review and extend the formalism, in particular we derive the exact RG flow equation for the EAA and the related hierarchy of coupled flow equations for the proper-vertices. We show how standard perturbation theory emerges as a particular way to iteratively solve the flow equation, if the starting point is the bare action. Next, we explore both technical and conceptual issues by means of three different applications of the formalism, to QED, to general non-linear sigma models (NLsigmaM) and to matter fields on curved spacetimes. In the main part of this thesis we construct the EAA for non-abelian gauge theories and for quantum Einstein gravity (QEG), using the background field method to implement the coarse-graining procedure in a gauge invariant way. We propose a new truncation scheme where the EAA is expanded in powers of the curvature or field strength. Crucial to the practical use of this expansion is the development of new techniques to manage functional traces such as the algorithm proposed in this thesis. This allows to project the flow of all terms in the EAA which are analytic in the fields. As an application we show how the low energy effective action for quantum gravity emerges as the result of integrating the RG flow. In any treatment of theories with local symmetries that introduces a reference scale, the question of preserving gauge invariance along the flow emerges as predominant. In the EAA framework this problem is dealt with the use of the background field formalism. This comes at the cost of enlarging the theory space where the EAA lives to the space of functionals of both fluctuation and background fields. In this thesis, we study how the identities dictated by the symmetries are modified by the introduction of the cutoff and we study so called bimetric truncations of the EAA that contain both fluctuation and background couplings. In particular, we confirm the existence of a non-Gaussian fixed point for QEG, that is at the heart of the Asymptotic Safety scenario in quantum gravity; in the enlarged bimetric theory space where the running of the cosmological constant and of Newton's constant is influenced by fluctuation couplings.