19 resultados para High spatial resolution
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Fluorescence correlation spectroscopy (FCS) is a powerful technique to determine the diffusion of fluorescence molecules in various environments. The technique is based on detecting and analyzing the fluctuation of fluorescence light emitted by fluorescence species diffusing through a small and fixed observation volume, formed by a laser focused into the sample. Because of its great potential and high versatility in addressing the diffusion and transport properties in complex systems, FCS has been successfully applied to a great variety of systems. In my thesis, I focused on the application of FCS to study the diffusion of fluorescence molecules in organic environments, especially in polymer melts. In order to examine our FCS setup and a developed measurement protocol, I first utilized FCS to measure tracer diffusion in polystyrene (PS) solutions, for which abundance data exist in the literature. I studied molecular and polymeric tracer diffusion in polystyrene solutions over a broad range of concentrations and different tracer and matrix molecular weights (Mw). Then FCS was further established to study tracer dynamics in polymer melts. In this part I investigated the diffusion of molecular tracers in linear flexible polymer melts [polydimethylsiloxane (PDMS), polyisoprene (PI)], a miscible polymer blend [PI and poly vinyl ethylene (PVE)], and star-shaped polymer [3-arm star polyisoprene (SPI)]. The effects of tracer sizes, polymer Mw, polymer types, and temperature on the diffusion coefficients of small tracers were discussed. The distinct topology of the host polymer, i.e. star polymer melt, revealed the notably different motion of the small tracer, as compared to its linear counterpart. Finally, I emphasized the advantage of the small observation volume which allowed FCS to investigate the tracer diffusions in heterogeneous systems; a swollen cross-linked PS bead and silica inverse opals, where high spatial resolution technique was required.
Resumo:
The adsorption of particles and surfactants at water-oil interfaces has attracted continuous attention because of its emulsion stabilizing effect and the possibility to form two-dimensional materials. Herein, I studied the interfacial diffusion of single molecules and nanoparticles at water-oil interfaces using fluorescence correlation spectroscopy. rnrnFluorescence correlation spectroscopy (FCS) is a promising technique to study diffusion of fluorescent tracers in diverse conditions. This technique monitors and analyzes the fluorescence fluctuation caused by single fluorescent tracers coming in and out of a diffraction-limited observation volume “one at a time”. Thus, this technique allows a combination of high precision, high spatial resolution and low tracer concentration. rnrnIn chapter 1, I discussed some controversial questions regarding the properties of water-hydrophobic interfaces and also introduced the current progress on the stability and dynamic of single nanoparticles at water-oil interfaces. The materials and setups I used in this thesis were summarized in chapter 2. rnrnIn chapter 3, I presented a new strategy to study the properties of water-oil interfaces. The two-dimensional diffusion of isolated molecular tracers at water/n-alkane interfaces was measured using fluorescence correlation spectroscopy. The diffusion coefficients of larger tracers with a hydrodynamic radius of 4.0 nm agreed well with the values calculated from the macroscopic viscosities of the two bulk phases. However, for small molecule tracers with hydrodynamic radii of only 1.0 and 0.6 nm, notable deviations were observed, indicating the existence of an interfacial region with a reduced effective viscosity. rnrnIn chapter 4, the interfacial diffusion of nanoparticles at water-oil interfaces was investigated using FCS. In stark contrast to the interfacial diffusion of molecular tracers, that of nanoparticles at any conditions is slower than the values calculated in accordance to the surrounding viscosity. The diffusion of nanoparticles at water-oil interfaces depended on the interfacial tension of liquid-liquid interfaces, the surface properties of nanoparticles, the particle sizes and the viscosities of surrounding liquid phases. In addition, the interfacial diffusion of nanoparticles with Janus motif is even slower than that of their symmetric counterparts. Based on the experimental results I obtained, I drew some possibilities to describe the origin of nanoparticle slowdown at water-oil interfaces.
Resumo:
The aim of this work is to measure the stress inside a hard micro object under extreme compression. To measure the internal stress, we compressed ruby spheres (a-Al2O3: Cr3+, 150 µm diameter) between two sapphire plates. Ruby fluorescence spectrum shifts to longer wavelengths under compression and can be related to the internal stress by a conversion coefficient. A confocal laser scanning microscope was used to excite and collect fluorescence at desired local spots inside the ruby sphere with spatial resolution of about 1 µm3. Under static external loads, the stress distribution within the center plane of the ruby sphere was measured directly for the first time. The result agreed to Hertz’s law. The stress across the contact area showed a hemispherical profile. The measured contact radius was in accord with the calculation by Hertz’s equation. Stress-load curves showed spike-like decrease after entering non-elastic phase, indicating the formation and coalescence of microcracks, which led to relaxing of stress. In the vicinity of the contact area luminescence spectra with multiple peaks were observed. This indicated the presence of domains of different stress, which were mechanically decoupled. Repeated loading cycles were applied to study the fatigue of ruby at the contact region. Progressive fatigue was observed when the load exceeded 1 N. As long as the load did not exceed 2 N stress-load curves were still continuous and could be described by Hertz’s law with a reduced Young’s modulus. Once the load exceeded 2 N, periodical spike-like decreases of the stress could be observed, implying a “memory effect” under repeated loading cycles. Vibration loading with higher frequencies was applied by a piezo. Redistributions of intensity on the fluorescence spectra were observed and it was attributed to the repopulation of the micro domains of different elasticity. Two stages of under vibration loading were suggested. In the first stage continuous damage carried on until certain limit, by which the second stage, e.g. breakage, followed in a discontinuous manner.
Resumo:
Bivalve mollusk shells are useful tools for multi-species and multi-proxy paleoenvironmental reconstructions with a high temporal and spatial resolution. Past environmental conditions can be reconstructed from shell growth and stable oxygen and carbon isotope ratios, which present an archive for temperature, freshwater fluxes and primary productivity. The purpose of this thesis is the reconstruction of Holocene climate and environmental variations in the North Pacific with a high spatial and temporal resolution using marine bivalve shells. This thesis focuses on several different Holocene time periods and multiple regions in the North Pacific, including: Japan, Alaska (AK), British Columbia (BC) and Washington State, which are affected by the monsoon, Pacific Decadal Oscillation (PDO) and El Niño/Southern Oscillation (ENSO). Such high-resolution proxy data from the marine realm of mid- and high-latitudes are still rare. Therefore, this study contributes to the optimization and verification of climate models. However, before using bivalves for environmental reconstructions and seasonality studies, life history traits must be well studied to temporally align and interpret the geochemical record. These calibration studies are essential to ascertain the usefulness of selected bivalve species as paleoclimate proxy archives. This work focuses on two bivalve species, the short-lived Saxidomus gigantea and the long-lived Panopea abrupta. Sclerochronology and oxygen isotope ratios of different shell layers of P. abrupta were studied in order to test the reliability of this species as a climate archive. The annual increments are clearly discernable in umbonal shell portions and the increments widths should be measured in these shell portions. A reliable reconstruction of paleotemperatures may only be achieved by exclusively sampling the outer shell layer of multiple contemporaneous specimens. Life history traits (e.g., timing of growth line formation, duration of the growing season and growth rates) and stable isotope ratios of recent S. gigantea from AK and BC were analyzed in detail. Furthermore, a growth-temperature model based on S. gigantea shells from Alaska was established, which provides a better understanding of the hydrological changes related to the Alaska Coastal Current (ACC). This approach allows the independent measurement of water temperature and salinity from variations in the width of lunar daily growth increments of S. gigantea. Temperature explains 70% of the variability in shell growth. The model was calibrated and tested with modern shells and then applied to archaeological specimens. The time period between 988 and 1447 cal yrs BP was characterized by colder (~1-2°C) and much drier (2-5 PSU) summers, and a likely much slower flowing ACC than at present. In contrast, the summers during the time interval of 599-1014 cal yrs BP were colder (up to 3°C) and fresher (1-2 PSU) than today. The Aleutian Low may have been stronger and the ACC was probably flowing faster during this time.
Resumo:
Im Rahmen dieser Arbeit wurde eine neue Methode für einen empfindlichen und isotopenselektiven Elementnachweis entwickelt. Unter Einsatz von Laserablation geschieht der Probenaufschluß direkt und mit einer Ortsauflösung von unter 30 m. Hierzu wurde ein hochauflösendes MALDI-TOF-Massenspektrometer, welches üblicherweise für biochemische Fragestellungen eingesetzt wird, mit einem spektroskopischen Aufbau zur resonanten Ionisation von Elementgehalten modifiziert. Die Methode ist somit insbesondere für die Untersuchung von Elementspuren in Festkörperproben mit mikroskopischer Struktur konzipiert. Methodische Entwicklungsarbeiten wurden anhand des Elements Gadolinium durchgeführt. Durch die Verwendung gepulster Farbstofflaser stehen ausreichend hohe Laserfelder zur Verfügung, um unabhängig von Hyperfeinstruktur und Isotopieverschiebung Übergänge aller Isotope im Rahmen des Resonanzionisations-Verfahrens zu sättigen. Darauf konnte eine Isotopenverhältnisanalyse mit einer Genauigkeit im Prozentbereich verwirklicht werden. Verschiedene Anregungsleitern wurden untersucht, und mit elementspezifischen Resonanzüberhöhungen bis zu zwei Größenordnungen über dem nicht-resonant gebildeten Untergrund konnte eine Nachweiseffizienz von über 10-4 (entsprechend sub-fg/g-Niveau) erzielt werden. Dazu wurden Simulationsrechnungen zum atomaren Sättigungsverhalten in starken resonanten Laserfeldern durchgeführt. Erste Anwendungen des Laserablationsverfahrens waren Proben kosmologischer Herkunft. Der physikalische Prozeß der Laserablation bei Metallen wurde unter Hochvakuum-Bedingung systematisch in Abhängigkeit der Laserfluenz untersucht. In der ablatierten Plasmaphase erwies sich der Neutralanteil als besonders geeignet für geschwindigkeitsselektive Laserionisations-Messungen. Eine bimodale Struktur wurde beobachtet, bestehend aus einer thermischen und einer schockwellen-induzierten Komponente. Der ionische Anteil der ablatierten Dampfphase konnte über variable elektrische Feldpulse untersucht werden. Laserablation unter Atmosphärenbedingung wurde an einem beschichteten Messingtarget untersucht. Dabei wurde die Entstehung von permanenten Oberflächenstrukturen beobachtet, welche sich durch Nichtgleichgewichts-Prozesse in der Dampfphase erklären lassen.
Resumo:
Im Rahmen dieser Arbeit wurde die zeitaufgelöste Photoemissions Elektronenmikroskopie (TR-PEEM) für die in-situ Untersuchung ultraschneller dynamischer Prozesse in dünnen mikrostrukturierten magnetischen Schichten während eines rasch verändernden externen Magnetfelds entwickelt. Das Experiment basiert auf der Nutzung des XMCD-Kontrasts (X-ray magnetic circular dichroism) mit Hilfe des zirkularpolarisierten Lichts von Synchrotronstrahlungsquellen (Elektronenspeicherringen BESSY II (Berlin) und ESRF (Grenoble)) für die dynamische Darstellung der magnetischen Domänen während ultraschneller Magnetisierungsvorgänge. Die hier entwickelte Methode wurde als erfolgreiche Kombination aus einer hohen Orts- und Zeitauflösung (weniger als 55 nm bzw. 15 ps) realisiert. Mit der hier beschriebenen Methode konnte nachgewiesen werden, dass die Magnetisierungsdynamik in großen Permalloy-Mikrostrukturen (40 µm x 80 µm und 20 µm x 80 µm, 40 nm dick) durch inkohärente Drehung der Magnetisierung und mit der Bildung von zeitlich abhängigen Übergangsdomänen einher geht, die den Ummagnetisierungsvorgang blockieren. Es wurden neue markante Differenzen zwischen der magnetischen Response einer vorgegebenen Dünnfilm-Mikrostruktur auf ein gepulstes externes Magnetfeld im Vergleich zu dem quasi-statischen Fall gefunden. Dies betrifft die Erscheinung von transienten raumzeitlichen Domänenmustern und besonderen Detailstrukturen in diesen Mustern, welche im quasi-statischen Fall nicht auftreten. Es wurden Beispiele solcher Domänenmuster in Permalloy-Mikrostrukturen verschiedener Formen und Größen untersucht und diskutiert. Insbesondere wurde die schnelle Verbreiterung von Domänenwänden infolge des präzessionalen Magnetisierungsvorgangs, die Ausbildung von transienten Domänenwänden und transienten Vortizes sowie die Erscheinung einer gestreiften Domänenphase aufgrund der inkohärenten Drehung der Magnetisierung diskutiert. Ferner wurde die Methode für die Untersuchung von stehenden Spinwellen auf ultradünnen (16 µm x 32 µm groß und 10 nm dick) Permalloy-Mikrostrukturen herangezogen. In einer zum periodischen Anregungsfeld senkrecht orientierten rechteckigen Mikrostruktur wurde ein induziertes magnetisches Moment gefunden. Dieses Phänomen wurde als „selbstfangende“ Spinwellenmode interpretiert. Es wurde gezeigt, dass sich eine erzwungene Normalmode durch Verschiebung einer 180°-Néelwand stabilisiert. Wird das System knapp unterhalb seiner Resonanzfrequenz angeregt, passt sich die Magnetisierungsverteilung derart an, dass ein möglichst großer Teil der durch das Anregungsfeld eingebrachten Energie im System verbleibt. Über einem bestimmten Grenzwert verursacht die Spinwellenmode nahe der Resonanzfrequenz eine effektive Kraft senkrecht zur 180°-Néel-Wand. Diese entsteht im Zentrum der Mikrostruktur und wird durch die streufeldinduzierte Kraft kompensiert. Als zusätzliche Möglichkeit wurden die Streufelder von magnetischen Mikrostrukturen während der dynamischen Prozesse quantitativ bestimmt und das genaue zeitliche Profil des Streufelds untersucht. Es wurde gezeigt, dass das zeitaufgelöste Photoemissions Elektronenmikroskop als ultraschnelles oberflächensensitives Magnetometer eingesetzt werden kann.
Resumo:
Zur geometrischen Vermessung und Beschreibung von Einschlüssen in natürlichen sowie im Labor geschaffenen Eispartikeln wurde ein neuartiger Versuchaufbau an der Tomographie-Endstation der Material Science Beam Line an der Swiss Light Source (SLS, Paul Scherrer Institut, Villigen, Schweiz) entwickelt. Dieser besteht aus einer Plexiglas-Tasse und einem doppelwandigen Kaptonfolien-Käfig, der wiederum auf die Düse eines CryojetXL (Oxford Instruments) montiert wurde. Abgesehen von dem hohen Maß an Flexibilit¨at bez¨uglich der Installation erlaubt es dieser Aufbau, die Temperatur des Experiments mit einer Genauigkeit von ± 1 K über einen Bereich von 271 K bis 220 K zu regeln. In den hier beschriebenen Experimenten wurde eine räumliche Auflösung von 1.4 µm erzielt.
Resumo:
Die chronisch obstruktive Lungenerkrankung (engl. chronic obstructive pulmonary disease, COPD) ist ein Überbegriff für Erkrankungen, die zu Husten, Auswurf und Dyspnoe (Atemnot) in Ruhe oder Belastung führen - zu diesen werden die chronische Bronchitis und das Lungenemphysem gezählt. Das Fortschreiten der COPD ist eng verknüpft mit der Zunahme des Volumens der Wände kleiner Luftwege (Bronchien). Die hochauflösende Computertomographie (CT) gilt bei der Untersuchung der Morphologie der Lunge als Goldstandard (beste und zuverlässigste Methode in der Diagnostik). Möchte man Bronchien, eine in Annäherung tubuläre Struktur, in CT-Bildern vermessen, so stellt die geringe Größe der Bronchien im Vergleich zum Auflösungsvermögen eines klinischen Computertomographen ein großes Problem dar. In dieser Arbeit wird gezeigt wie aus konventionellen Röntgenaufnahmen CT-Bilder berechnet werden, wo die mathematischen und physikalischen Fehlerquellen im Bildentstehungsprozess liegen und wie man ein CT-System mittels Interpretation als lineares verschiebungsinvariantes System (engl. linear shift invariant systems, LSI System) mathematisch greifbar macht. Basierend auf der linearen Systemtheorie werden Möglichkeiten zur Beschreibung des Auflösungsvermögens bildgebender Verfahren hergeleitet. Es wird gezeigt wie man den Tracheobronchialbaum aus einem CT-Datensatz stabil segmentiert und mittels eines topologieerhaltenden 3-dimensionalen Skelettierungsalgorithmus in eine Skelettdarstellung und anschließend in einen kreisfreien Graphen überführt. Basierend auf der linearen System Theorie wird eine neue, vielversprechende, integral-basierte Methodik (IBM) zum Vermessen kleiner Strukturen in CT-Bildern vorgestellt. Zum Validieren der IBM-Resultate wurden verschiedene Messungen an einem Phantom, bestehend aus 10 unterschiedlichen Silikon Schläuchen, durchgeführt. Mit Hilfe der Skelett- und Graphendarstellung ist ein Vermessen des kompletten segmentierten Tracheobronchialbaums im 3-dimensionalen Raum möglich. Für 8 zweifach gescannte Schweine konnte eine gute Reproduzierbarkeit der IBM-Resultate nachgewiesen werden. In einer weiteren, mit IBM durchgeführten Studie konnte gezeigt werden, dass die durchschnittliche prozentuale Bronchialwandstärke in CT-Datensätzen von 16 Rauchern signifikant höher ist, als in Datensätzen von 15 Nichtrauchern. IBM läßt sich möglicherweise auch für Wanddickenbestimmungen bei Problemstellungen aus anderen Arbeitsgebieten benutzen - kann zumindest als Ideengeber dienen. Ein Artikel mit der Beschreibung der entwickelten Methodik und der damit erzielten Studienergebnisse wurde zur Publikation im Journal IEEE Transactions on Medical Imaging angenommen.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
Sowohl in der Natur als auch in der Industrie existieren thermisch induzierte Strömungen. Von Interesse für diese Forschungsarbeit sind dabei die Konvektionen im Erdmantel sowie in den Glasschmelzwannen. Der dort stattfindende Materialtransport resultiert aus Unterschieden in der Dichte, der Temperatur und der chemischen Konzentration innerhalb des konvektierenden Materials. Um das Verständnis für die ablaufenden Prozesse zu verbessern, werden von zahlreichen Forschergruppen numerische Modellierungen durchgeführt. Die Verifikation der dafür verwendeten Algorithmen erfolgt meist über die Analyse von Laborexperimenten. Im Vordergrund dieser Forschungsarbeit steht die Entwicklung einer Methode zur Bestimmung der dreidimensionalen Temperaturverteilung für die Untersuchung von thermisch induzierten Strömungen in einem Versuchsbecken. Eine direkte Temperaturmessung im Inneren des Versuchsmaterials bzw. der Glasschmelze beeinflusst allerdings das Strömungsverhalten. Deshalb wird die geodynamisch störungsfrei arbeitende Impedanztomographie verwendet. Die Grundlage dieser Methode bildet der erweiterte Arrhenius-Zusammenhang zwischen Temperatur und spezifischer elektrischer Leitfähigkeit. Während der Laborexperimente wird ein zähflüssiges Polyethylenglykol-Wasser-Gemisch in einem Becken von unten her erhitzt. Die auf diese Weise generierten Strömungen stellen unter Berücksichtigung der Skalierung ein Analogon sowohl zu dem Erdmantel als auch zu den Schmelzwannen dar. Über mehrere Elektroden, die an den Beckenwänden installiert sind, erfolgen die geoelektrischen Messungen. Nach der sich anschließenden dreidimensionalen Inversion der elektrischen Widerstände liegt das Modell mit der Verteilung der spezifischen elektrischen Leitfähigkeit im Inneren des Versuchsbeckens vor. Diese wird mittels der erweiterten Arrhenius-Formel in eine Temperaturverteilung umgerechnet. Zum Nachweis der Eignung dieser Methode für die nichtinvasive Bestimmung der dreidimensionalen Temperaturverteilung wurden mittels mehrerer Thermoelemente an den Beckenwänden zusätzlich direkte Temperaturmessungen durchgeführt und die Werte miteinander verglichen. Im Wesentlichen sind die Innentemperaturen gut rekonstruierbar, wobei die erreichte Messgenauigkeit von der räumlichen und zeitlichen Auflösung der Gleichstromgeoelektrik abhängt.
Resumo:
Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn
Resumo:
Die Verifikation bewertet die Güte von quantitativen Niederschlagsvorhersagen(QNV) gegenüber Beobachtungen und liefert Hinweise auf systematische Modellfehler. Mit Hilfe der merkmals-bezogenen Technik SAL werden simulierte Niederschlagsverteilungen hinsichtlich (S)truktur, (A)mplitude und (L)ocation analysiert. Seit einigen Jahren werden numerische Wettervorhersagemodelle benutzt, mit Gitterpunktabständen, die es erlauben, hochreichende Konvektion ohne Parametrisierung zu simulieren. Es stellt sich jetzt die Frage, ob diese Modelle bessere Vorhersagen liefern. Der hoch aufgelöste stündliche Beobachtungsdatensatz, der in dieser Arbeit verwendet wird, ist eine Kombination von Radar- und Stationsmessungen. Zum einem wird damit am Beispiel der deutschen COSMO-Modelle gezeigt, dass die Modelle der neuesten Generation eine bessere Simulation des mittleren Tagesgangs aufweisen, wenn auch mit zu geringen Maximum und etwas zu spätem Auftreten. Im Gegensatz dazu liefern die Modelle der alten Generation ein zu starkes Maximum, welches erheblich zu früh auftritt. Zum anderen wird mit dem neuartigen Modell eine bessere Simulation der räumlichen Verteilung des Niederschlags, durch eine deutliche Minimierung der Luv-/Lee Proble-matik, erreicht. Um diese subjektiven Bewertungen zu quantifizieren, wurden tägliche QNVs von vier Modellen für Deutschland in einem Achtjahreszeitraum durch SAL sowie klassischen Maßen untersucht. Die höher aufgelösten Modelle simulieren realistischere Niederschlagsverteilungen(besser in S), aber bei den anderen Komponenten tritt kaum ein Unterschied auf. Ein weiterer Aspekt ist, dass das Modell mit der gröbsten Auf-lösung(ECMWF) durch den RMSE deutlich am besten bewertet wird. Darin zeigt sich das Problem des ‚Double Penalty’. Die Zusammenfassung der drei Komponenten von SAL liefert das Resultat, dass vor allem im Sommer das am feinsten aufgelöste Modell (COSMO-DE) am besten abschneidet. Hauptsächlich kommt das durch eine realistischere Struktur zustande, so dass SAL hilfreiche Informationen liefert und die subjektive Bewertung bestätigt. rnIm Jahr 2007 fanden die Projekte COPS und MAP D-PHASE statt und boten die Möglich-keit, 19 Modelle aus drei Modellkategorien hinsichtlich ihrer Vorhersageleistung in Südwestdeutschland für Akkumulationszeiträume von 6 und 12 Stunden miteinander zu vergleichen. Als Ergebnisse besonders hervorzuheben sind, dass (i) je kleiner der Gitter-punktabstand der Modelle ist, desto realistischer sind die simulierten Niederschlags-verteilungen; (ii) bei der Niederschlagsmenge wird in den hoch aufgelösten Modellen weniger Niederschlag, d.h. meist zu wenig, simuliert und (iii) die Ortskomponente wird von allen Modellen am schlechtesten simuliert. Die Analyse der Vorhersageleistung dieser Modelltypen für konvektive Situationen zeigt deutliche Unterschiede. Bei Hochdrucklagen sind die Modelle ohne Konvektionsparametrisierung nicht in der Lage diese zu simulieren, wohingegen die Modelle mit Konvektionsparametrisierung die richtige Menge, aber zu flächige Strukturen realisieren. Für konvektive Ereignisse im Zusammenhang mit Fronten sind beide Modelltypen in der Lage die Niederschlagsverteilung zu simulieren, wobei die hoch aufgelösten Modelle realistischere Felder liefern. Diese wetterlagenbezogene Unter-suchung wird noch systematischer unter Verwendung der konvektiven Zeitskala durchge-führt. Eine erstmalig für Deutschland erstellte Klimatologie zeigt einen einer Potenzfunktion folgenden Abfall der Häufigkeit dieser Zeitskala zu größeren Werten hin auf. Die SAL Ergebnisse sind für beide Bereiche dramatisch unterschiedlich. Für kleine Werte der konvektiven Zeitskala sind sie gut, dagegen werden bei großen Werten die Struktur sowie die Amplitude deutlich überschätzt. rnFür zeitlich sehr hoch aufgelöste Niederschlagsvorhersagen gewinnt der Einfluss der zeitlichen Fehler immer mehr an Bedeutung. Durch die Optimierung/Minimierung der L Komponente von SAL innerhalb eines Zeitfensters(+/-3h) mit dem Beobachtungszeit-punkt im Zentrum ist es möglich diese zu bestimmen. Es wird gezeigt, dass bei optimalem Zeitversatz die Struktur und Amplitude der QNVs für das COSMO-DE besser werden und damit die grundsätzliche Fähigkeit des Modells die Niederschlagsverteilung realistischer zu simulieren, besser gezeigt werden kann.
Resumo:
The upgrade of the Mainz Mikrotron (MAMI) electron accelerator facility in 2007 which raised the beam energy up to 1.5,GeV, gives the opportunity to study strangeness production channels through electromagnetic process. The Kaon Spectrometer (KAOS) managed by the A1 Collaboration, enables the efficient detection of the kaons associated with strangeness electroproduction. Used as a single arm spectrometer, it can be combined with the existing high-resolution spectrometers for exclusive measurements in the kinematic domain accessible to them.rnrnFor studying hypernuclear production in the ^A Z(e,e'K^+) _Lambda ^A(Z-1) reaction, the detection of electrons at very forward angles is needed. Therefore, the use of KAOS as a double-arm spectrometer for detection of kaons and the electrons at the same time is mandatory. Thus, the electron arm should be provided with a new detector package, with high counting rate capability and high granularity for a good spatial resolution. To this end, a new state-of-the-art scintillating fiber hodoscope has been developed as an electron detector.rnrnThe hodoscope is made of two planes with a total of 18432 scintillating double-clad fibers of 0.83 mm diameter. Each plane is formed by 72 modules. Each module is formed from a 60deg slanted multi-layer bundle, where 4 fibers of a tilted column are connected to a common read out. The read-out is made with 32 channels of linear array multianode photomultipliers. Signal processing makes use of newly developed double-threshold discriminators. The discriminated signal is sent in parallel to dead-time free time-to-digital modules and to logic modules for triggering purposes.rnrnTwo fiber modules were tested with a carbon beam at GSI, showing a time resolution of 220 ps (FWHM) and a position residual of 270 microm m (FWHM) with a detection efficiency epsilon>99%.rnrnThe characterization of the spectrometer arm has been achieved through simulations calculating the transfer matrix of track parameters from the fiber detector focal plane to the primary vertex. This transfer matrix has been calculated to first order using beam transport optics and has been checked by quasielastic scattering off a carbon target, where the full kinematics is determined by measuring the recoil proton momentum. The reconstruction accuracy for the emission parameters at the quasielastic vertex was found to be on the order of 0.3 % in first test realized.rnrnThe design, construction process, commissioning, testing and characterization of the fiber hodoscope are presented in this work which has been developed at the Institut für Kernphysik of the Johannes Gutenberg - Universität Mainz.
Resumo:
Zur Untersuchung von Effekten beim Laserheizen von Polymeren wurde ein Temperaturmessaufbau entwickelt. Das Messprinzip basiert auf der Auswertung der thermischen Emission. Der Messaufbau besteht aus einer hochauflösenden Kamera, ausgestattet mit Bildverstärker, sowie Interferenzfiltern um eine spektrale Auflösung zu gewährleisten und einem gepulster NIR-Heizlaser. Die Pulsdauer des Lasers liegt in der Größenordnung von 10 µs, der Strahldurchmesser durch entsprechende Fokussierung in der Größenordnung von 10 µm. Mittels Fit des Planck‘schen Strahlungsgesetzes an die aufgenommene thermische Emission konnten 2D Temperaturgraphen erhalten werden. Eine Ortsauflösung von 1 µm und eine Zeitauflösung von 1 µs konnten realisiert werden. In Kombination mit Finite-Elemente-Simulationen wurde mit diesem Aufbau die Laserablation verschiedener Polymere untersucht. Dabei hat sich gezeigt, dass bei Polymeren mit einem Glasübergang im Temperaturbereich zwischen Raum- und Zerfallstemperatur, photomechanische Ablation stattfand. Die Ablationsschwelle lag für diese Polymere mehrere 10 K über dem Glasübergang, weit unter der Zerfallstemperatur aus thermogravimetrischen Experimenten mit typischen Heizraten von 10 K/min. Bei hohen Laserenergien und damit verbundenen hohen Temperaturen konnte dagegen thermischer Zerfall beobachtet werden. Ein Übergang des Mechanismus von photomechanischer Ablation zu Ablation durch thermischen Zerfall ergab sich bei Temperaturen deutlich über der Zerfallstemperatur des Polymers aus der Thermogravimetrie. Dies wurde bedingt durch die kurzen Reaktionszeiten des Laserexperiments in der Größenordnung der Pulsdauer und steht im Einklang mit dem Gesetz von Arrhenius. Polymere ohne Glasübergang im Heizbereich zeigten dagegen keine photomechanische Ablation, sondern ausschließlich thermischen Zerfall. Die Ablationsschwelle lag auch hier bei höheren Temperaturen, entsprechend dem Gesetz von Arrhenius. Hohe Temperaturen, mehrere 100 K über der Zerfallstemperatur, ergaben sich darüber hinaus bei hohen Laserenergien. Ein drastisches Überhitzen des Polymers, wie in der Literatur beschrieben, konnte nicht beobachtet werden. Experimentelle Befunde deuten vielmehr darauf hin, dass es sich bei dem heißen Material um thermische Zerfallsprodukte, Polymerfragmente, Monomer und Zerfallsprodukte des Monomers handelte bzw. das Temperaturprofil der Zerfallsreaktion selbst visualisiert wurde.
Resumo:
Chemotherapy is a mainstay of cancer treatment. Due to increased drug resistance and the severe side effects of currently used therapeutics, new candidate compounds are required for improvement of therapy success. Shikonin, a natural naphthoquinone, was used in traditional Chinese medicine for the treatment of different inflammatory diseases and recent studies revealed the anticancer activities of shikonin. We found that shikonin has strong cytotoxic effects on 15 cancer cell lines, including multidrug-resistant cell lines. Transcriptome-wide mRNA expression studies showed that shikonin induced genetic pathways regulating cell cycle, mitochondrial function, levels of reactive oxygen species, and cytoskeletal formation. Taking advantage of the inherent fluorescence of shikonin, we analyzed its uptake and distribution in live cells with high spatial and temporal resolution using flow cytometry and confocal microscopy. Shikonin was specifically accumulated in the mitochondria, and this accumulation was associated with a shikonin-dependent deregulation of cellular Ca(2+) and ROS levels. This deregulation led to a breakdown of the mitochondrial membrane potential, dysfunction of microtubules, cell-cycle arrest, and ultimately induction of apoptosis. Seeing as both the metabolism and the structure of mitochondria show marked differences between cancer cells and normal cells, shikonin is a promising candidate for the next generation of chemotherapy.