942 resultados para OWL <Informatik>
A new double laser pulse pumping scheme for transient collisionally excited plasma soft X-ray lasers
Resumo:
Within this thesis a new double laser pulse pumping scheme for plasma-based, transient collisionally excited soft x-ray lasers (SXRL) was developed, characterized and utilized for applications. SXRL operations from ~50 up to ~200 electron volt were demonstrated applying this concept. As a central technical tool, a special Mach-Zehnder interferometer in the chirped pulse amplification (CPA) laser front-end was developed for the generation of fully controllable double-pulses to optimally pump SXRLs.rnThis Mach-Zehnder device is fully controllable and enables the creation of two CPA pulses of different pulse duration and variable energy balance with an adjustable time delay. Besides the SXRL pumping, the double-pulse configuration was applied to determine the B-integral in the CPA laser system by amplifying short pulse replica in the system, followed by an analysis in the time domain. The measurement of B-integral values in the 0.1 to 1.5 radian range, only limited by the reachable laser parameters, proved to be a promising tool to characterize nonlinear effects in the CPA laser systems.rnContributing to the issue of SXRL pumping, the double-pulse was configured to optimally produce the gain medium of the SXRL amplification. The focusing geometry of the two collinear pulses under the same grazing incidence angle on the target, significantly improved the generation of the active plasma medium. On one hand the effect was induced by the intrinsically guaranteed exact overlap of the two pulses on the target, and on the other hand by the grazing incidence pre-pulse plasma generation, which allows for a SXRL operation at higher electron densities, enabling higher gain in longer wavelength SXRLs and higher efficiency at shorter wavelength SXRLs. The observation of gain enhancement was confirmed by plasma hydrodynamic simulations.rnThe first introduction of double short-pulse single-beam grazing incidence pumping for SXRL pumping below 20 nanometer at the laser facility PHELIX in Darmstadt (Germany), resulted in a reliable operation of a nickel-like palladium SXRL at 14.7 nanometer with a pump energy threshold strongly reduced to less than 500 millijoule. With the adaptation of the concept, namely double-pulse single-beam grazing incidence pumping (DGRIP) and the transfer of this technology to the laser facility LASERIX in Palaiseau (France), improved efficiency and stability of table-top high-repetition soft x-ray lasers in the wavelength region below 20 nanometer was demonstrated. With a total pump laser energy below 1 joule the target, 2 mircojoule of nickel-like molybdenum soft x-ray laser emission at 18.9 nanometer was obtained at 10 hertz repetition rate, proving the attractiveness for high average power operation. An easy and rapid alignment procedure fulfilled the requirements for a sophisticated installation, and the highly stable output satisfied the need for a reliable strong SXRL source. The qualities of the DGRIP scheme were confirmed in an irradiation operation on user samples with over 50.000 shots corresponding to a deposited energy of ~ 50 millijoule.rnThe generation of double-pulses with high energies up to ~120 joule enabled the transfer to shorter wavelength SXRL operation at the laser facility PHELIX. The application of DGRIP proved to be a simple and efficient method for the generation of soft x-ray lasers below 10 nanometer. Nickel-like samarium soft x-ray lasing at 7.3 nanometer was achieved at a low total pump energy threshold of 36 joule, which confirmed the suitability of the applied pumping scheme. A reliable and stable SXRL operation was demonstrated, due to the single-beam pumping geometry despite the large optical apertures. The soft x-ray lasing of nickel-like samarium was an important milestone for the feasibility of applying the pumping scheme also for higher pumping pulse energies, which are necessary to obtain soft x-ray laser wavelengths in the water window. The reduction of the total pump energy below 40 joule for 7.3 nanometer short wavelength lasing now fulfilled the requirement for the installation at the high-repetition rate operation laser facility LASERIX.rn
Resumo:
In der vorliegenden Dissertation werden die Kernreaktionen 25Mg(alpha,n)28Si, 26Mg(alpha,n)29Si und 18O(alpha,n)21Ne im astrophysikalisch interessanten Energiebereich von E alpha = 1000 keV bis E alpha = 2450 keV untersucht.rnrnDie Experimente wurden am Nuclear Structure Laboratory der University of Notre Dame (USA) mit dem vor Ort befindlichen Van-de-Graaff Beschleuniger KN durchgeführt. Hierbei wurden Festkörpertargets mit evaporiertem Magnesium oder anodisiertem Sauerstoff mit alpha-Teilchen beschossen und die freigesetzten Neutronen untersucht. Zum Nachweis der freigesetzten Neutronen wurde mit Hilfe von Computersimulationen ein Neutrondetektor basierend auf rn3He-Zählrohren konstruiert. Weiterhin wurden aufgrund des verstärkten Auftretens von Hintergrundreaktionen verschiedene Methoden zur Datenanalyse angewendet.rnrnAbschliessend wird mit Hilfe von Netzwerkrechnungen der Einfluss der Reaktionen 25Mg(alpha,n)28Si, 26Mg(alpha,n)29Si und 18O(alpha,n)21Ne auf die stellare Nukleosynthese untersucht.rn
Resumo:
Im Rahmen des A4-Experiments werden die Beiträge des Strange-Quarks zu den elektromagnetischen Formfaktoren des Protons gemessen. Solche Seequarkeffekte bei Niederenergieobservablen sind für das Verständnis der Hadronenstruktur wichtig, denn sie stellen eine direkte Manifestation der QCD-Freiheitsgrade im nichtperturbativen Bereich dar.rnrnLinearkombinationen der Strangeness-Vektorformfaktoren des Protons $G_E^s$ und $G_M^s$ sind experimentell über die Messung der paritätsverletzenden Asymmetrie im Wirkungsquerschnitt der elastischen Streuung longitudinal polarisierter Elektronen an unpolarisierten Nukleonen zugänglich. Vor dieser Arbeit hatte die A4-Kollaboration zwei solche Messungen unter Vorwärtsstreuwinkeln bei den Viererimpulsübertägen $Q^2$ von jeweils 0.23 und 0.10 (GeV/c)$^2$ veröffentlicht. Um die Separation von $G_E^s$ und $G_M^s$ beim höheren $Q^2$-Wert zu erhalten, wurde eine Messung unter Rückwärtswinkeln mit der Strahlenergie von 315 MeV durchgeführt.rnrnIm A4-Experiment werden die an einem Flüssigwasserstoff-Target gestreuten Elektronen eines longitudinal polarisierten Strahls mit einem Cherenkov-Kalorimeter einzeln gezählt. Durch die kalorimetrische Energiemessung erfolgt die Trennung der elastischen von den inelastischen Ereignissen. Bei Rückwärtswinkeln wurde dieses Apparat mit einem Szintillator als Elektronentagger erweitert, um den $\gamma$-Untergrund aus dem $\pi^0$-Zerfall zu unterdrücken.rnrnUm die Auswertung dieser Messung zu ermöglichen, wurden im Rahmen dieser Arbeit die gemessenen Energiespektren anhand von ausführlichen Simulationen der Streuprozesse und des Antwortverhaltens der Detektoren untersucht, und eine Methode zur Behandlung des restlichen Untergrunds aus der $\gamma$-Konversionrnvor dem Szintillator entwickelt. Die Simulationergebnisse sind auf dem 5%-Niveau mit den Messungen verträglich, und es wurde bewiesen, dass die Methode der Untergrundbehandlung anwendbar ist.rnrnDie Asymmetriemessung bei Rückwärtswinkeln, die man nach Anwendung der hier erarbeiteten Untergrundbehandlung erhält, wurde für die Separation von $G_E^s$ und $G_M^s$ bei $Q^2$=0.22 (GeV/c)^2 mit der Vorwärtswinkelmessung beim selbenrn$Q^2$ kombiniert. Es ergeben sich die Werte:rnrn$G_M^s$= -0.14 ± 0.11_{exp} ± 0.11_{theo} undrn$G_E^s$= 0.050 ± 0.038_{exp} ± 0.019_{theo}, rnrnwobei die systematische Unsicherheit wegen der Untergrundbehandlung im experimentellen Fehler enthalten ist. Am Ende der Arbeit werden die aus diesen Resultaten folgenden Rückschlüsse auf den Einfluss der Strangeness auf die statischen elektromagnetischen Eigenschaften des Protons diskutiert.rn
Resumo:
Das A4-Experiment bestimmt den Beitrag der Strangequarks zu den elektromagnetischen Formfaktoren des Nukleons durch Messung der Paritätsverletzung in der elastischen Elektron-Nukleon-Streuung. Diese Messungen werden mit dem spinpolarisierten Elektronenstrahl des Mainzer Mikrotrons (MAMI) bei Strahlenergien zwischen 315 und 1508 MeV ndurchgeführt. Die Bestimmung des Strahlpolarisationsgrades ist für die Analyse der Daten unerläßlich, um die physikalische Asymmetrie aus der gemessenen paritätsverletzenden Asymmetrie extrahieren zu können. Aus diesem Grund wird von der A4-Kollaboration ein neuartiges Compton-Laserrückstreupolarimeter entwickelt, das eine zerstörungsfreie Messung der Strahlpolarisation, parallel zum laufenden Paritätsexperiment erlaubt. Um den zuverlässigen Dauerbetrieb des Polarimeters zu ermöglichen, wurde das Polarimeter im Rahmen dieser Arbeit weiterentwickelt. Das Datenerfassungssystem für Photonen- und Elektronendetektor wurde neu aufgebaut und im Hinblick auf die Verarbeitung hoher Raten optimiert. Zum Nachweis der rückgestreuten Photonen wurde ein neuartiger Detektor (LYSO) in Betrieb genommen. Darüber hinaus wurden GEANT4-Simulationen der Detektoren durchgeführt und eine Analyseumgebung für die Extraktion von Comptonasymmetrien aus den Rückstreudaten entwickelt. Das Analyseverfahren nutzt die Möglichkeit, die rückgestreuten Photonen durch koinzidente Detektion der gestreuten Elektronen energiemarkiert nachzuweisen (Tagging). Durch die von der Energiemarkierung eingeführte differentielle Energieskala wird somit eine präzise Bestimmung der Analysierstärke möglich. In der vorliegenden Arbeit wurde die Analysierstärke des Polarimeters bestimmt, so daß nun das Produkt von Elektronen- und Laserstrahlpolarisation bei einem Strahlstrom von 20 muA, parallel zum laufenden Paritätsexperiment, mit einer statistischen Genauigkeit von 1% in 24 Stunden bei 855 MeV bzw. <1% in 12 Stunden bei 1508 MeV gemessen werden kann. In Kombination mit der Bestimmung der Laserpolarisation in einer parallelen Arbeit (Y. Imai) auf 1% kann die statistische Unsicherheit der Strahlpolarisation im A4-Experiment von zuvor 5% auf nun 1,5% bei 1508MeV verringert werden. Für die Daten zur Messung der paritätsverletzenden Elektronenstreuung bei einem Viererimpulsübertrag von $Q^2=0,6 (GeV/c)^2$ beträgt die Rohasymmetrie beim derzeitigen Stand der Analyse $A_{PV}^{Roh} = ( -20,0 pm 0,9_{stat} ) cdot 10^{-6}$. Für eine Strahlpolarisation von 80% erhält man einen Gesamtfehler von $1,68 cdot 10^{-6}$ für $Delta P_e/P_e = 5 %$. Als Ergebnis dieser Arbeit wird sich dieser Fehler durch Analyse der Daten des Compton-Laserrückstreupolarimeters um 29% auf $1,19 cdot 10^{-6}$ ($Delta P_e/P_e = 1,5 %$) verringern lassen.
Resumo:
To assist rational compound design of organic semiconductors, two problems need to be addressed. First, the material morphology has to be known at an atomistic level. Second, with the morphology at hand, an appropriate charge transport model needs to be developed in order to link charge carrier mobility to structure.rnrnThe former can be addressed by generating atomistic morphologies using molecular dynamics simulations. However, the accessible range of time- and length-scales is limited. To overcome these limitations, systematic coarse-graining methods can be used. In the first part of the thesis, the Versatile Object-oriented Toolkit for Coarse-graining Applications is introduced, which provides a platform for the implementation of coarse-graining methods. Tools to perform Boltzmann inversion, iterative Boltzmann inversion, inverse Monte Carlo, and force-matching are available and have been tested on a set of model systems (water, methanol, propane and a single hexane chain). Advantages and problems of each specific method are discussed.rnrnIn partially disordered systems, the second issue is closely connected to constructing appropriate diabatic states between which charge transfer occurs. In the second part of the thesis, the description initially used for small conjugated molecules is extended to conjugated polymers. Here, charge transport is modeled by introducing conjugated segments on which charge carriers are localized. Inter-chain transport is then treated within a high temperature non-adiabatic Marcus theory while an adiabatic rate expression is used for intra-chain transport. The charge dynamics is simulated using the kinetic Monte Carlo method.rnrnThe entire framework is finally employed to establish a relation between the morphology and the charge mobility of the neutral and doped states of polypyrrole, a conjugated polymer. It is shown that for short oligomers, charge carrier mobility is insensitive to the orientational molecular ordering and is determined by the threshold transfer integral which connects percolating clusters of molecules that form interconnected networks. The value of this transfer integral can be related to the radial distribution function. Hence, charge mobility is mainly determined by the local molecular packing and is independent of the global morphology, at least in such a non-crystalline state of a polymer.
Resumo:
This thesis presents a new imaging technique for ultracold quantum gases. Since the first observation of Bose-Einstein condensation, ultracold atoms have proven to be an interesting system to study fundamental quantum effects in many-body systems. Most of the experiments use optical imaging rnmethods to extract the information from the system and are therefore restricted to the fundamental limitation of this technique: the best achievable spatial resolution that can be achieved is comparable to the wavelength of the employed light field. Since the average atomic distance and the length scale of characteristic spatial structures in Bose-Einstein condensates such as vortices and solitons is between 100 nm and 500 nm, an imaging technique with an adequate spatial resolution is needed. This is achieved in this work by extending the method of scanning electron microscopy to ultracold quantum gases. A focused electron beam is scanned over the atom cloud and locally produces ions which are subsequently detected. The new imaging technique allows for the precise measurement of the density distribution of a trapped Bose-Einstein condensate. Furthermore, the spatial resolution is determined by imaging the atomic distribution in one-dimensional and two-dimensional optical lattices. Finally, the variety of the imaging method is demonstrated by the selective removal of single lattice site. rn
Resumo:
Im Forschungsgebiet der Künstlichen Intelligenz, insbesondere im Bereich des maschinellen Lernens, hat sich eine ganze Reihe von Verfahren etabliert, die von biologischen Vorbildern inspiriert sind. Die prominentesten Vertreter derartiger Verfahren sind zum einen Evolutionäre Algorithmen, zum anderen Künstliche Neuronale Netze. Die vorliegende Arbeit befasst sich mit der Entwicklung eines Systems zum maschinellen Lernen, das Charakteristika beider Paradigmen in sich vereint: Das Hybride Lernende Klassifizierende System (HCS) wird basierend auf dem reellwertig kodierten eXtended Learning Classifier System (XCS), das als Lernmechanismus einen Genetischen Algorithmus enthält, und dem Wachsenden Neuralen Gas (GNG) entwickelt. Wie das XCS evolviert auch das HCS mit Hilfe eines Genetischen Algorithmus eine Population von Klassifizierern - das sind Regeln der Form [WENN Bedingung DANN Aktion], wobei die Bedingung angibt, in welchem Bereich des Zustandsraumes eines Lernproblems ein Klassifizierer anwendbar ist. Beim XCS spezifiziert die Bedingung in der Regel einen achsenparallelen Hyperquader, was oftmals keine angemessene Unterteilung des Zustandsraumes erlaubt. Beim HCS hingegen werden die Bedingungen der Klassifizierer durch Gewichtsvektoren beschrieben, wie die Neuronen des GNG sie besitzen. Jeder Klassifizierer ist anwendbar in seiner Zelle der durch die Population des HCS induzierten Voronoizerlegung des Zustandsraumes, dieser kann also flexibler unterteilt werden als beim XCS. Die Verwendung von Gewichtsvektoren ermöglicht ferner, einen vom Neuronenadaptationsverfahren des GNG abgeleiteten Mechanismus als zweites Lernverfahren neben dem Genetischen Algorithmus einzusetzen. Während das Lernen beim XCS rein evolutionär erfolgt, also nur durch Erzeugen neuer Klassifizierer, ermöglicht dies dem HCS, bereits vorhandene Klassifizierer anzupassen und zu verbessern. Zur Evaluation des HCS werden mit diesem verschiedene Lern-Experimente durchgeführt. Die Leistungsfähigkeit des Ansatzes wird in einer Reihe von Lernproblemen aus den Bereichen der Klassifikation, der Funktionsapproximation und des Lernens von Aktionen in einer interaktiven Lernumgebung unter Beweis gestellt.
Resumo:
The goal of the present research is to define a Semantic Web framework for precedent modelling, by using knowledge extracted from text, metadata, and rules, while maintaining a strong text-to-knowledge morphism between legal text and legal concepts, in order to fill the gap between legal document and its semantics. The framework is composed of four different models that make use of standard languages from the Semantic Web stack of technologies: a document metadata structure, modelling the main parts of a judgement, and creating a bridge between a text and its semantic annotations of legal concepts; a legal core ontology, modelling abstract legal concepts and institutions contained in a rule of law; a legal domain ontology, modelling the main legal concepts in a specific domain concerned by case-law; an argumentation system, modelling the structure of argumentation. The input to the framework includes metadata associated with judicial concepts, and an ontology library representing the structure of case-law. The research relies on the previous efforts of the community in the field of legal knowledge representation and rule interchange for applications in the legal domain, in order to apply the theory to a set of real legal documents, stressing the OWL axioms definitions as much as possible in order to enable them to provide a semantically powerful representation of the legal document and a solid ground for an argumentation system using a defeasible subset of predicate logics. It appears that some new features of OWL2 unlock useful reasoning features for legal knowledge, especially if combined with defeasible rules and argumentation schemes. The main task is thus to formalize legal concepts and argumentation patterns contained in a judgement, with the following requirement: to check, validate and reuse the discourse of a judge - and the argumentation he produces - as expressed by the judicial text.
Resumo:
Der Begriff "Bannerwolke" bezeichnet ein eindrucksvolles Phänomen aus dem Bereich der Gebirgsmeteorologie. Bannerwolken können gelegentlich im Hochgebirge im Bereich steiler Bergspitzen oder langgezogener Bergrücken, wie z.B. dem Matterhorn in den Schweizer Alpen oder dem Zugspitzgrat in den Bayrischen Alpen beobachtet werden. Der Begriff bezeichnet eine Banner- oder Fahnen-ähnliche Wolkenstruktur, welche an der windabgewandten Seite des Berges befestigt zu sein scheint, während die windzugewandte Seite vollkommen wolkenfrei ist. Bannerwolken fanden bislang, trotz ihres relativ häufigen Auftretens in der wissenschaftlichen Literatur kaum Beachtung. Entsprechend wenig ist über ihren Entstehungsmechanismus und insbesondere die relative Bedeutung dynamischer gegenüber thermodynamischer Prozesse bekannt. In der wissenschaftlichen Literatur wurden bislang 3 unterschiedliche Mechanismen postuliert, um die Entstehung von Bannerwolken zu erklären. Demnach entstehen Bannerwolken durch (a) den Bernoulli-Effekt, insbesondere durch die lokale adiabatische Kühlung hervorgerufen durch eine Druckabnahme entlang quasi-horizontal verlaufender, auf der windzugewandten Seite startender Trajektorien, (b) durch isobare Mischung bodennaher kälterer Luft mit wärmerer Luft aus höheren Schichten, oder (c) durch erzwungene Hebung im aufsteigenden Ast eines Leerotors. Ziel dieser Arbeit ist es, ein besseres physikalisches Verständnis für das Phänomen der Bannerwolke zu entwickeln. Das Hauptaugenmerk liegt auf dem dominierenden Entstehungsmechanismus, der relativen Bedeutung dynamischer und thermodynamischer Prozesse, sowie der Frage nach geeigneten meteorologischen Bedingungen. Zu diesem Zweck wurde ein neues Grobstruktursimulations (LES)-Modell entwickelt, welches geeignet ist turbulente, feuchte Strömungen in komplexem Terrain zu untersuchen. Das Modell baut auf einem bereits existierenden mesoskaligen (RANS) Modell auf. Im Rahmen dieser Arbeit wurde das neue Modell ausführlich gegen numerische Referenzlösungen und Windkanal-Daten verglichen. Die wesentlichen Ergebnisse werden diskutiert, um die Anwendbarkeit des Modells auf die vorliegende wissenschaftliche Fragestellung zu überprüfen und zu verdeutlichen. Die Strömung über eine idealisierte pyramidenförmige Bergspitze wurde für Froude-Zahlen Fr >> 1 sowohl auf Labor- als auch atmosphärischer Skala mit und ohne Berücksichtigung der Feuchtephysik untersucht. Die Simulationen zeigen, dass Bannerwolken ein primär dynamisches Phänomen darstellen. Sie entstehen im Lee steiler Bergspitzen durch dynamisch erzwungene Hebung. Die Simulationen bestätigen somit die Leerotor-Theorie. Aufgrund des stark asymmetrischen, Hindernis-induzierten Strömungsfeldes können Bannerwolken sogar im Falle horizontal homogener Anfangsbedingungen hinsichtlich Feuchte und Temperatur entstehen. Dies führte zu der neuen Erkenntnis, dass zusätzliche leeseitige Feuchtequellen, unterschiedliche Luftmassen in Luv und Lee, oder Strahlungseffekte keine notwendige Voraussetzung für die Entstehung einer Bannerwolke darstellen. Die Wahrscheinlichkeit der Bannerwolkenbildung steigt mit zunehmender Höhe und Steilheit des pyramidenförmigen Hindernisses und ist in erster Näherung unabhängig von dessen Orientierung zur Anströmung. Simulationen mit und ohne Berücksichtigung der Feuchtephysik machen deutlich, dass thermodynamische Prozesse (insbes. die Umsetzung latenter Wärme) für die Dynamik prototypischer (nicht-konvektiver) Bannerwolken zweitrangig ist. Die Verstärkung des aufsteigenden Astes im Lee und die resultierende Wolkenbildung, hervorgerufen durch die Freisetzung latenter Wärme, sind nahezu vernachlässigbar. Die Feuchtephysik induziert jedoch eine Dipol-ähnliche Struktur im Vertikalprofil der Brunt-Väisälä Frequenz, was zu einem moderaten Anstieg der leeseitigen Turbulenz führt. Es wird gezeigt, dass Gebirgswellen kein entscheidendes Ingredienz darstellen, um die Dynamik von Bannerwolken zu verstehen. Durch eine Verstärkung der Absinkbewegung im Lee, haben Gebirgswellen lediglich die Tendenz die horizontale Ausdehnung von Bannerwolken zu reduzieren. Bezüglich geeigneter meteorologischer Bedingungen zeigen die Simulationen, dass unter horizontal homogenen Anfangsbedingungen die äquivalentpotentielle Temperatur in der Anströmung mit der Höhe abnehmen muss. Es werden 3 notwendige und hinreichende Kriterien, basierend auf dynamischen und thermodynamischen Variablen vorgestellt, welche einen weiteren Einblick in geeignete meteorologische Bedingungen geben.
Resumo:
Atmospheric aerosol particles serving as cloud condensation nuclei (CCN) are key elements of the hydrological cycle and climate. Knowledge of the spatial and temporal distribution of CCN in the atmosphere is essential to understand and describe the effects of aerosols in meteorological models. In this study, CCN properties were measured in polluted and pristine air of different continental regions, and the results were parameterized for efficient prediction of CCN concentrations.The continuous-flow CCN counter used for size-resolved measurements of CCN efficiency spectra (activation curves) was calibrated with ammonium sulfate and sodium chloride aerosols for a wide range of water vapor supersaturations (S=0.068% to 1.27%). A comprehensive uncertainty analysis showed that the instrument calibration depends strongly on the applied particle generation techniques, Köhler model calculations, and water activity parameterizations (relative deviations in S up to 25%). Laboratory experiments and a comparison with other CCN instruments confirmed the high accuracy and precision of the calibration and measurement procedures developed and applied in this study.The mean CCN number concentrations (NCCN,S) observed in polluted mega-city air and biomass burning smoke (Beijing and Pearl River Delta, China) ranged from 1000 cm−3 at S=0.068% to 16 000 cm−3 at S=1.27%, which is about two orders of magnitude higher than in pristine air at remote continental sites (Swiss Alps, Amazonian rainforest). Effective average hygroscopicity parameters, κ, describing the influence of chemical composition on the CCN activity of aerosol particles were derived from the measurement data. They varied in the range of 0.3±0.2, were size-dependent, and could be parameterized as a function of organic and inorganic aerosol mass fraction. At low S (≤0.27%), substantial portions of externally mixed CCN-inactive particles with much lower hygroscopicity were observed in polluted air (fresh soot particles with κ≈0.01). Thus, the aerosol particle mixing state needs to be known for highly accurate predictions of NCCN,S. Nevertheless, the observed CCN number concentrations could be efficiently approximated using measured aerosol particle number size distributions and a simple κ-Köhler model with a single proxy for the effective average particle hygroscopicity. The relative deviations between observations and model predictions were on average less than 20% when a constant average value of κ=0.3 was used in conjunction with variable size distribution data. With a constant average size distribution, however, the deviations increased up to 100% and more. The measurement and model results demonstrate that the aerosol particle number and size are the major predictors for the variability of the CCN concentration in continental boundary layer air, followed by particle composition and hygroscopicity as relatively minor modulators. Depending on the required and applicable level of detail, the measurement results and parameterizations presented in this study can be directly implemented in detailed process models as well as in large-scale atmospheric and climate models for efficient description of the CCN activity of atmospheric aerosols.
Resumo:
Nuclear masses are an important quantity to study nuclear structure since they reflect the sum of all nucleonic interactions. Many experimental possibilities exist to precisely measure masses, out of which the Penning trap is the tool to reach the highest precision. Moreover, absolute mass measurements can be performed using carbon, the atomic-mass standard, as a reference. The new double-Penning trap mass spectrometer TRIGA-TRAP has been installed and commissioned within this thesis work, which is the very first experimental setup of this kind located at a nuclear reactor. New technical developments have been carried out such as a reliable non-resonant laser ablation ion source for the production of carbon cluster ions and are still continued, like a non-destructive ion detection technique for single-ion measurements. Neutron-rich fission products will be available by the reactor that are important for nuclear astrophysics, especially the r-process. Prior to the on-line coupling to the reactor, TRIGA-TRAP already performed off-line mass measurements on stable and long-lived isotopes and will continue this program. The main focus within this thesis was on certain rare-earth nuclides in the well-established region of deformation around N~90. Another field of interest are mass measurements on actinoids to test mass models and to provide direct links to the mass standard. Within this thesis, the mass of 241-Am could be measured directly for the first time.
Resumo:
Diabatische Rossby-Wellen (DRWs) sind zyklonale Wirbel in der unteren Troposphäre, welche sich durch einen thermodynamisch-dynamischen Mechanismus kontinuierlich regenerieren und dabei schnell propagieren können. Vorangehende Untersuchungen schreiben derartigen zyklonalen Wirbeln das Potential zu, unter Wechselwirkung mit einer Anomalie an der Tropopause eine rapide Zyklonenintensivierung und folglich extreme Wetterereignisse hervorrufen zu können. DRWs wurden bisher meist in idealisierten Studien untersucht, woraus sich noch einige offene Fragen zu diesem Phänomen, besonders in realen Modelldaten, ergeben.rnrnIm Mittelpunkt dieser Arbeit steht die Fallstudie einer DRW, die im Dezember 2005 über dem Nordatlantik auftrat. Der Lebenszyklus des Systems ist über mehrere Tage und durch verschiedene Phasen verfolgbar und resultiert in einer explosiven Druckvertiefung. Zur Untersuchung der Fallstudie wurde mit operationellen Daten eines Globalmodelles sowie mit den Resultaten eines feinskaligeren Regionalmodelles gearbeitet, auf welche unterschiedliche Analysewerkzeuge angewendet wurden. rnrnDie eingehende Untersuchung der Propagationsphase der DRW bekräftigte das Vorhandensein von genügend Feuchte und Baroklinität als essentiell für den Propagationsmechanismus und die Intensität der DRW. Während der Propagationsphase arbeitet der selbsterhaltende DRW-Mechanismus unabhängig von einer von den Wellen an der Tropopause ausgehenden Anregung. Sensitivitätsstudien mit dem Regionalmodell, in denen die Umgebungsbedingungen der DRW lokal modifiziert wurden, ergaben, dass die Propagation einen relativ robusten Ablauf darstellt. Dementsprechend war in den vier untersuchten operationellen Vorhersagen die Propagationsphase gut wiedergegeben, während die rapide Intensivierung, wie sie gemäß den Analysen aufgetreten ist, von zwei der Vorhersagen verfehlt wurde.rnrnBei der Untersuchung der Intensivierungsphase stellten sich die Position und die zeitliche Abstimmung der Bewegung der Anomalie an der Tropopause relativ zur DRW in der unteren Troposphäre sowie die Stärke der Systeme als entscheidende Einflussfaktoren heraus. In den Entwicklungen der Sensitivitätssimulationen deutete sich an, dass ein unabhängig von der DRW an geeigneter Position entstandener zyklonaler Wirbel konstruktiver zu einer starken Zyklonenintensivierung beitragen kann als die DRW.rnrnIm zweiten Teil der Arbeit wurde ein Datensatz über die Nordhemisphäre für die Jahre 2004-2008 hinsichtlich des geographischen Vorkommens und der Intensivierung von DRWs untersucht. DRWs ereigneten sich in diesem Zeitraum über dem Atlantik (255 DRWs) halb so oft wie über dem Pazifik (515 DRWs). Ihre Entstehungsgebiete befanden sich über den Ostteilen der Kontinente und den Westhälften der Ozeane. Die Zugbahnen folgten größtenteils der baroklinen Zone der mittleren Breiten. Von den erfassten DRWs intensivierten sich im Atlanik 16% zu explosiven Tiefdruckgebieten, über dem Pazifik liegt der Anteil mit 11% etwas niedriger. Damit tragen DRWs zu etwa 20% der sich explosiv intensivierenden außertropischen Zyklonen bei.
Resumo:
In this thesis, the influence of composition changes on the glass transition behavior of binary liquids in two and three spatial dimensions (2D/3D) is studied in the framework of mode-coupling theory (MCT).The well-established MCT equations are generalized to isotropic and homogeneous multicomponent liquids in arbitrary spatial dimensions. Furthermore, a new method is introduced which allows a fast and precise determination of special properties of glass transition lines. The new equations are then applied to the following model systems: binary mixtures of hard disks/spheres in 2D/3D, binary mixtures of dipolar point particles in 2D, and binary mixtures of dipolar hard disks in 2D. Some general features of the glass transition lines are also discussed. The direct comparison of the binary hard disk/sphere models in 2D/3D shows similar qualitative behavior. Particularly, for binary mixtures of hard disks in 2D the same four so-called mixing effects are identified as have been found before by Götze and Voigtmann for binary hard spheres in 3D [Phys. Rev. E 67, 021502 (2003)]. For instance, depending on the size disparity, adding a second component to a one-component liquid may lead to a stabilization of either the liquid or the glassy state. The MCT results for the 2D system are on a qualitative level in agreement with available computer simulation data. Furthermore, the glass transition diagram found for binary hard disks in 2D strongly resembles the corresponding random close packing diagram. Concerning dipolar systems, it is demonstrated that the experimental system of König et al. [Eur. Phys. J. E 18, 287 (2005)] is well described by binary point dipoles in 2D through a comparison between the experimental partial structure factors and those from computer simulations. For such mixtures of point particles it is demonstrated that MCT predicts always a plasticization effect, i.e. a stabilization of the liquid state due to mixing, in contrast to binary hard disks in 2D or binary hard spheres in 3D. It is demonstrated that the predicted plasticization effect is in qualitative agreement with experimental results. Finally, a glass transition diagram for binary mixtures of dipolar hard disks in 2D is calculated. These results demonstrate that at higher packing fractions there is a competition between the mixing effects occurring for binary hard disks in 2D and those for binary point dipoles in 2D.
Resumo:
Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].
Resumo:
Ozon (O3) ist in der Atmosphäre ein wichtiges Oxidanz und Treibhausgas. Während die höchsten Konzentrationen in der Stratosphäre beobachtet werden und die vor der gefährlichen UV-Strahlung schützende Ozonschicht bilden, können sich signifikante Änderungen der Ozon-Konzentration in der Region der Tropopause auf das Klima der Erde auswirken. Des Weiteren ist Ozon eine der Hauptquellen für das Hydroxylradikal (OH) und nimmt damit entscheidend Einfluss auf die Oxidationskraft der Atmosphäre. Der konvektive Transport von Ozon und seinen Vorläufergasen aus Regionen nahe der Erdoberfläche in die freie Troposphäre beeinflusst das Budget dieser Spezies in der Tropopausenregion.rnDie Datengrundlage der Studie in der vorliegenden Arbeit basiert auf den flugzeuggetragenen Messkampagnen GABRIEL 2005 (Suriname, Südamerika) sowie HOOVER I 2006 und HOOVER II 2007 (beide in Europa). Mit dem zur Verfügung stehenden Datensatz wird das Ozonbudget in der freien, unbelasteten Hintergrundatmosphäre und in der durch hochreichende Konvektion gestörten, oberen Troposphäre untersucht. Anhand der auf in-situ Messungen von O3, NO, OH, HO2 und dem aktinischen Strahlungsfluss basierten Berechnung der Netto-Ozonproduktionsrate (NOPR) werden für das Messgebiet Ozontendenzen in der unbelasteten Troposphäre abgeleitet und mit Simulationen des globalen Chemie-Transport-Modells MATCH-MPIC verglichen. Mit Hilfe zweier Fallstudien in den Tropen in Südamerika und den mittleren Breiten in Europa werden die Auswirkungen von hochreichender Konvektion auf die obere Troposphäre quantifiziert.rnDie Ergebnisse zeigen für die Grenzschicht in niedrigen und mittleren Breiten eine eindeutige Tendenz zur Produktion von Ozon, was für den tropischen Regenwald in der Messregion nicht der allgemeinen Erwartung entsprach, nach der diese Region durch die Zerstörung von Ozon charakterisiert sein sollte. In der oberen Troposphäre ab etwa 7 km wird für die beiden Regionen eine leichte Tendenz zur Ozonproduktion beobachtet. Signifikante Unterschiede zeigen die Ergebnisse für die mittlere Troposphäre. Während die Tropen in dieser Region durch eine eindeutige Tendenz zur Zerstörung von Ozon charakterisiert sind, lässt sich über den mittleren Breiten zwar eine hohe photochemische Aktivität aber keine derart klare Tendenz feststellen. Die hohen Breiten zeichnen sich durch eine neutrale Troposphäre in Bezug auf die Ozontendenz aus und weisen kaum photochemische Aktivität auf. Der Vergleich dieser Ergebnisse mit dem MATCH-MPIC Modell zeigt in weiten Teilen der Messregionen eine grundlegende Übereinstimmung in der Tendenz zur Produktion oder Zerstörung von Ozon. Die absoluten Werte werden vom Modell aber generell unterschätzt. Signifikante Unterschiede zwischen in-situ Daten und Modellsimulationen werden in der Grenzschicht über dem tropischen Regenwald identifiziert.rnDer Einfluss der Konvektion ist durch eine signifikant erhöhte NOPR gekennzeichnet. In dieser Arbeit wird in den Tropen mit einem Median-Wert von 0.20 ppbv h−1 eine um den Faktor 3.6 erhöhte NOPR im Vergleich zur ungestörten oberen Troposphäre abgeschätzt. In den mittleren Breiten führt die um eine Größenordnung höhere NO-Konzentration zu einem Wert von 1.89 ppbv h−1, was einer Überhöhung um einen Faktor 6.5 im Vergleich zum ungestörten Zustand entspricht. Diese Ergebnisse zeigen für beide Regionen in der oberen Troposphäre eine erhöhte Ozonproduktion als Folge konvektiver Aktivität. rnrnHochreichende Konvektion ist zudem ein sehr effektiver Mechanismus für den Vertikaltransport aus der Grenzschicht in die obere Troposphäre. Die schnelle Hebung in konvektiven Wolken führt bei Spurengasen mit Quellen an der Erdoberfläche zu einer Erhöhung ihrer Konzentration in der oberen Troposphäre. Die hochgradig löslichen Spurenstoffe Formaldehyd (HCHO) und Wasserstoffperoxid (H2O2) sind wichtige Vorläufergase der HOx-Radikale. Es wird angenommen, dass sie aufgrund ihrer Löslichkeit in Gewitterwolken effektiv ausgewaschen werden.rnIn der vorliegenden Arbeit wird eine Fallstudie von hochreichender Konvektion im Rahmen des HOOVER II Projekts im Sommer 2007 analysiert. Am 19.07.2007 entwickelten sich am Nachmittag am Südostrand eines in nordöstlicher Richtung ziehenden mesoskaligen konvektiven Systems drei zunächst isolierte konvektive Zellen. Flugzeuggetragene Messungen in der Aus- und der Einströmregion einer dieser Gewitterzellen stellen einen exzellenten Datensatz bereit, um die Auswirkungen von hochreichender Konvektion auf die Verteilung verschiedener Spurengase in der oberen Troposphäre zu untersuchen. Der Vergleich der Konzentrationen von Kohlenstoffmonoxid (CO) und Methan (CH4) zwischen der oberen Troposphäre und der Grenzschicht deutet auf einen nahezu unverdünnten Transport dieser langlebigen Spezies in der konvektiven Zelle hin. Die Verhältnisse betragen (0.94±0.04) für CO und (0.99±0.01) für CH4. Für die löslichen Spezies HCHO und H2O2 beträgt dieses Verhältnis in der Ausströmregion (0.55±0.09) bzw. (0.61±0.08). Dies ist ein Indiz dafür, dass diese Spezies nicht so effektiv ausgewaschen werden wie angenommen. Zum besseren Verständnis des Einflusses der Konvektion auf die Budgets dieser Spezies in der oberen Troposphäre wurden im Rahmen dieser Arbeit Boxmodell-Studien für den Beitrag der photochemischen Produktion in der Ausströmregion durchgeführt, wobei die gemessenen Spezies und Photolysefrequenzen als Randbedingungen dienten. Aus den Budgetbetrachtungen für HCHO und H2O2 wird eine Auswascheffizienz von (67±24) % für HCHO und (41±18) % für H2O2 abgeschätzt. Das für H2O2 überraschende Ergebnis lässt darauf schließen, dass dieses Molekül in einer Gewitterwolke deutlich effektiver transportiert werden kann, als aufgrund seiner hohen Löslichkeit aus der Henry-Konstanten zu erwarten wäre. Das Ausgasen von gelöstem H2O2 beim Gefrieren eines Wolkentropfens, d.h. ein Retentionskoeffizient kleiner 1, ist ein möglicher Mechanismus, der zum beobachteten Mischungsverhältnis dieser löslichen Spezies in der Ausströmregion beitragen kann.