640 resultados para Informatik
Resumo:
Hochreichende Konvektion über Waldbränden ist eine der intensivsten Formen von atmosphärischer Konvektion. Die extreme Wolkendynamik mit hohen vertikalen Windgeschwindigkeiten (bis 20 m/s) bereits an der Wolkenbasis, hohen Wasserdampfübersättigungen (bis 1%) und die durch das Feuer hohen Anzahlkonzentration von Aerosolpartikeln (bis 100000 cm^-3) bilden einen besonderen Rahmen für Aerosol-Wolken Wechselwirkungen.Ein entscheidender Schritt in der mikrophysikalischen Entwicklung einer konvektiven Wolke ist die Aktivierung von Aerosolpartikeln zu Wolkentropfen. Dieser Aktivierungsprozess bestimmt die anfängliche Anzahl und Größe der Wolkentropfen und kann daher die Entwicklung einer konvektiven Wolke und deren Niederschlagsbildung beeinflussen. Die wichtigsten Faktoren, welche die anfängliche Anzahl und Größe der Wolkentropfen bestimmen, sind die Größe und Hygroskopizität der an der Wolkenbasis verfügbaren Aerosolpartikel sowie die vertikale Windgeschwindigkeit. Um den Einfluss dieser Faktoren unter pyro-konvektiven Bedingungen zu untersuchen, wurden numerische Simulationen mit Hilfe eines Wolkenpaketmodells mit detaillierter spektraler Beschreibung der Wolkenmikrophysik durchgeführt. Diese Ergebnisse können in drei unterschiedliche Bereiche abhängig vom Verhältnis zwischen vertikaler Windgeschwindigkeit und Aerosolanzahlkonzentration (w/NCN) eingeteilt werden: (1) ein durch die Aerosolkonzentration limitierter Bereich (hohes w/NCN), (2) ein durch die vertikale Windgeschwindigkeit limitierter Bereich (niedriges w/NCN) und (3) ein Übergangsbereich (mittleres w/NCN). Die Ergebnisse zeigen, dass die Variabilität der anfänglichen Anzahlkonzentration der Wolkentropfen in (pyro-) konvektiven Wolken hauptsächlich durch die Variabilität der vertikalen Windgeschwindigkeit und der Aerosolkonzentration bestimmt wird. rnUm die mikrophysikalischen Prozesse innerhalb der rauchigen Aufwindregion einer pyrokonvektiven Wolke mit einer detaillierten spektralen Mikrophysik zu untersuchen, wurde das Paketmodel entlang einer Trajektorie innerhalb der Aufwindregion initialisiert. Diese Trajektore wurde durch dreidimensionale Simulationen eines pyro-konvektiven Ereignisses durch das Model ATHAM berechnet. Es zeigt sich, dass die Anzahlkonzentration der Wolkentropfen mit steigender Aerosolkonzentration ansteigt. Auf der anderen Seite verringert sich die Größe der Wolkentropfen mit steigender Aerosolkonzentration. Die Reduzierung der Verbreiterung des Tropfenspektrums stimmt mit den Ergebnissen aus Messungen überein und unterstützt das Konzept der Unterdrückung von Niederschlag in stark verschmutzen Wolken.Mit Hilfe des Models ATHAM wurden die dynamischen und mikrophysikalischen Prozesse von pyro-konvektiven Wolken, aufbauend auf einer realistischen Parametrisierung der Aktivierung von Aerosolpartikeln durch die Ergebnisse der Aktivierungsstudie, mit zwei- und dreidimensionalen Simulationen untersucht. Ein modernes zweimomenten mikrophysikalisches Schema wurde in ATHAM implementiert, um den Einfluss der Anzahlkonzentration von Aerosolpartikeln auf die Entwicklung von idealisierten pyro-konvektiven Wolken in US Standardamtosphären für die mittleren Breiten und den Tropen zu untersuchen. Die Ergebnisse zeigen, dass die Anzahlkonzentration der Aerosolpartikel die Bildung von Regen beeinflusst. Für geringe Aerosolkonzentrationen findet die rasche Regenbildung hauptsächlich durch warme mikrophysikalische Prozesse statt. Für höhere Aerosolkonzentrationen ist die Eisphase wichtiger für die Bildung von Regen. Dies führt zu einem verspäteten Einsetzen von Niederschlag für verunreinigtere Atmosphären. Außerdem wird gezeigt, dass die Zusammensetzung der Eisnukleationspartikel (IN) einen starken Einfluss auf die dynamische und mikrophysikalische Struktur solcher Wolken hat. Bei sehr effizienten IN bildet sich Regen früher. Die Untersuchung zum Einfluss des atmosphärischen Hintergrundprofils zeigt eine geringe Auswirkung der Meteorologie auf die Sensitivität der pyro-konvektiven Wolken auf diernAerosolkonzentration. Zum Abschluss wird gezeigt, dass die durch das Feuer emittierte Hitze einen deutlichen Einfluss auf die Entwicklung und die Wolkenobergrenze von pyro-konvektive Wolken hat. Zusammenfassend kann gesagt werden, dass in dieser Dissertation die Mikrophysik von pyrokonvektiven Wolken mit Hilfe von idealisierten Simulation eines Wolkenpaketmodell mit detaillierte spektraler Mikrophysik und eines 3D Modells mit einem zweimomenten Schema im Detail untersucht wurde. Es wird gezeigt, dass die extremen Bedingungen im Bezug auf die vertikale Windgeschwindigkeiten und Aerosolkonzentrationen einen deutlichen Einfluss auf die Entwicklung von pyro-konvektiven Wolken haben.
Resumo:
IceCube, ein Neutrinoteleskop, welches zur Zeit am Südpol aufgebaut und voraussichtlich 2011 fertiggestellt sein wird, kann galaktische Kernkollaps-Supernovae mit hoher Signifikanz und unübertroffener statistischer Genauigkeit der Neutrinolichtkurve detektieren. Derartige Supernovae werden begleitet von einem massiven Ausbruch niederenergetischer Neutrinos aller Flavour. Beim Durchfliegen des Detektormediums Eis entstehen Positronen und Elektronen, welche wiederum lokale Tscherenkowlichtschauer produzieren, die in ihrer Summe das gesamte Eis erleuchten. Ein Nachweis ist somit, trotz der Optimierung IceCubes auf hochenergetische Teilchenspuren, über eine kollektive Rauschratenerhöhung aller optischen Module möglich. Die vorwiegende Reaktion ist der inverse Betazerfall der Antielektronneutrinos, welcher über 90,% des gesamten Signals ausmacht.rnrnDiese Arbeit beschreibt die Implementierung und Funktionsweise der Supernova-Datennahme-Software sowie der Echtzeitanalyse, mit welcher die oben genannte Nachweismethode seit August 2007 realisiert ist. Die Messdaten der ersten zwei Jahre wurden ausgewertet und belegen ein extrem stabiles Verhalten des Detektors insgesamt sowie fast aller Lichtsensoren, die eine gemittelte Ausfallquote von lediglich 0,3,% aufweisen. Eine Simulation der Detektorantwort nach zwei unterschiedlichen Supernova-Modellen ergibt eine Sichtweite IceCubes, die im besten Falle bis zur 51,kpc entfernten Großen Magellanschen Wolke reicht. Leider ist der Detektor nicht in der Lage, die Deleptonisierungsspitze aufzulösen, denn Oszillationen der Neutrinoflavour innerhalb des Sterns modifizieren die Neutrinospektren ungünstig. Jedoch können modellunabhängig anhand des frühesten Signalanstiegs die inverse Massenhierarchie sowie $sin^2 2theta_{13} > 10^{-3}$ etabliert werden, falls die Entfernung zur Supernova $leq$,6,kpc beträgt. Gleiches kann durch Auswertung eines möglichen Einflusses der Erdmaterie auf die Neutrinooszillation mit Hilfe der Messung eines zweiten Neutrinodetektors erreicht werden.
Resumo:
Am COMPASS-Experiment am CERN-SPS wird die Spinsstruktur des Nukleons mit Hilfe der Streuung von polarisierten Myonen an polarisierten Nukleonen untersucht. Der in der inklusiven tiefinelastischen Streuung gemessene Beitrag der Quarks zum Nukleonspin reicht nicht aus, um den Spin des Nukleons zu erklären. Daher soll geklärt werden, wie die Gluonpolarisation und die Bahndrehimpulse von Quarks und Gluonen zum Gesamtspin des Nukleons beitragen. Da sich die Gluonpolarisation aus der $Q^{2}$-Abhängigkeit der Asymmetrien in der inklusiven Streuung nur abschätzen lässt, wird eine direkte Messung der Gluonpolarisation benötigt. Die COMPASS-Kollaboration bestimmt daher die Wirkungsquerschnittsasymmetrien für Photon-Gluon-Fusionprozesse, indem sie zum einen die offene Charmproduktion und zum anderen die Produktion von Hadronpaaren mit großen Transversalimpulsen verwendet. In dieser Arbeit wird die Messung der Gluonpolarisation mit den COMPASS-Daten der Jahre 2003 und 2004 vorgestellt. Für die Analyse werden die Ereignisse mit großem Impulsübertrag ($Q^{2}>1$ $GeV^{2}/c^{2}$) und mit Hadronpaaren mit großem Transversalimpuls ($p_{perp}>0.7$ $GeV/c$) verwendet. Die Photon-Nukleon-Asymmetrie wurde aus dem gewichteten Doppelverhältnis der selektierten Ereignisse bestimmt. Der Schnitt auf $p_{perp}>0.7$rn$GeV/c$ unterdrückt die Prozesse führender Ordnung und QCD-Compton Prozesse, so dass die Asymmetrie direkt mit der Gluonpolarisation über die Analysierstärke verknüpft ist. Der gemessene Wert ist sehr klein und verträglich mit einer verschwindenden Gluonpolarisation. Zur Vermeidung von falschen Asymmetrien aufgrund der Änderung der Detektorakzeptanz wurden Doppelverhältnisse untersucht, bei denen sich der Wirkungsquerschnitt aufhebt und nur die Detektorasymmetrien übrig bleiben. Es konnte gezeigt werden, dass das COMPASS-Spektrometer keine signifikante Zeitabhängigkeit aufweist. Für die Berechnung der Analysierstärke wurden Monte Carlo Ereignisse mit Hilfe des LEPTO-Generators und des COMGeant Software Paketes erzeugt. Dabei ist eine gute Beschreibung der Daten durch das Monte Carlo sehr wichtig. Dafür wurden zur Verbesserung der Beschreibung JETSET Parameter optimiert. Es ergab sich ein Wert von rn$frac{Delta G}{G}=0.054pm0.145_{(stat)}pm0.131_{(sys)}pm0.04_{(MC)}$ bei einem mittleren Impulsbruchteil von $langle x_{gluon}rangle=0.1$ und $langle Q^{2}rangle=1.9$ $GeV^{2}/c^{2}$. Dieses Ergebnis deutet auf eine sehr kleine Gluonpolarisation hin und steht im Einklang mit den Ergebnissen anderer Methoden, wie offene Charmproduktion und mit den Ergebnissen, die am doppelt polarisierten RHIC Collider am BNL erzielt wurden.
Resumo:
Key technology applications like magnetoresistive sensors or the Magnetic Random Access Memory (MRAM) require reproducible magnetic switching mechanisms. i.e. predefined remanent states. At the same time advanced magnetic recording schemes push the magnetic switching time into the gyromagnetic regime. According to the Landau-Lifschitz-Gilbert formalism, relevant questions herein are associated with magnetic excitations (eigenmodes) and damping processes in confined magnetic thin film structures.rnObjects of study in this thesis are antiparallel pinned synthetic spin valves as they are extensively used as read heads in today’s magnetic storage devices. In such devices a ferromagnetic layer of high coercivity is stabilized via an exchange bias field by an antiferromagnet. A second hard magnetic layer, separated by a non-magnetic spacer of defined thickness, aligns antiparallel to the first. The orientation of the magnetization vector in the third ferromagnetic NiFe layer of low coercivity - the freelayer - is then sensed by the Giant MagnetoResistance (GMR) effect. This thesis reports results of element specific Time Resolved Photo-Emission Electron Microscopy (TR-PEEM) to image the magnetization dynamics of the free layer alone via X-ray Circular Dichroism (XMCD) at the Ni-L3 X-ray absorption edge.rnThe ferromagnetic systems, i.e. micron-sized spin valve stacks of typically deltaR/R = 15% and Permalloy single layers, were deposited onto the pulse leading centre stripe of coplanar wave guides, built in thin film wafer technology. The ferromagnetic platelets have been applied with varying geometry (rectangles, ellipses and squares), lateral dimension (in the range of several micrometers) and orientation to the magnetic field pulse to study the magnetization behaviour in dependence of these magnitudes. The observation of magnetic switching processes in the gigahertz range became only possible due to the joined effort of producing ultra-short X-ray pulses at the synchrotron source BESSY II (operated in the so-called low-alpha mode) and optimizing the wave guide design of the samples for high frequency electromagnetic excitation (FWHM typically several 100 ps). Space and time resolution of the experiment could be reduced to d = 100 nm and deltat = 15 ps, respectively.rnIn conclusion, it could be shown that the magnetization dynamics of the free layer of a synthetic GMR spin valve stack deviates significantly from a simple phase coherent rotation. In fact, the dynamic response of the free layer is a superposition of an averaged critically damped precessional motion and localized higher order spin wave modes. In a square platelet a standing spin wave with a period of 600 ps (1.7 GHz) was observed. At a first glance, the damping coefficient was found to be independent of the shape of the spin-valve element, thus favouring the model of homogeneous rotation and damping. Only by building the difference in the magnetic rotation between the central region and the outer rim of the platelet, the spin wave becomes visible. As they provide an additional efficient channel for energy dissipation, spin waves contribute to a higher effective damping coefficient (alpha = 0.01). Damping and magnetic switching behaviour in spin valves thus depend on the geometry of the element. Micromagnetic simulations reproduce the observed higher-order spin wave mode.rnBesides the short-run behaviour of the magnetization of spin valves Permalloy single layers with thicknesses ranging from 3 to 40 nm have been studied. The phase velocity of a spin wave in a 3 nm thick ellipse could be determined to 8.100 m/s. In a rectangular structure exhibiting a Landau-Lifschitz like domain pattern, the speed of the field pulse induced displacement of a 90°-Néel wall has been determined to 15.000 m/s.rn
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
In the present dissertation we consider Feynman integrals in the framework of dimensional regularization. As all such integrals can be expressed in terms of scalar integrals, we focus on this latter kind of integrals in their Feynman parametric representation and study their mathematical properties, partially applying graph theory, algebraic geometry and number theory. The three main topics are the graph theoretic properties of the Symanzik polynomials, the termination of the sector decomposition algorithm of Binoth and Heinrich and the arithmetic nature of the Laurent coefficients of Feynman integrals.rnrnThe integrand of an arbitrary dimensionally regularised, scalar Feynman integral can be expressed in terms of the two well-known Symanzik polynomials. We give a detailed review on the graph theoretic properties of these polynomials. Due to the matrix-tree-theorem the first of these polynomials can be constructed from the determinant of a minor of the generic Laplacian matrix of a graph. By use of a generalization of this theorem, the all-minors-matrix-tree theorem, we derive a new relation which furthermore relates the second Symanzik polynomial to the Laplacian matrix of a graph.rnrnStarting from the Feynman parametric parameterization, the sector decomposition algorithm of Binoth and Heinrich serves for the numerical evaluation of the Laurent coefficients of an arbitrary Feynman integral in the Euclidean momentum region. This widely used algorithm contains an iterated step, consisting of an appropriate decomposition of the domain of integration and the deformation of the resulting pieces. This procedure leads to a disentanglement of the overlapping singularities of the integral. By giving a counter-example we exhibit the problem, that this iterative step of the algorithm does not terminate for every possible case. We solve this problem by presenting an appropriate extension of the algorithm, which is guaranteed to terminate. This is achieved by mapping the iterative step to an abstract combinatorial problem, known as Hironaka's polyhedra game. We present a publicly available implementation of the improved algorithm. Furthermore we explain the relationship of the sector decomposition method with the resolution of singularities of a variety, given by a sequence of blow-ups, in algebraic geometry.rnrnMotivated by the connection between Feynman integrals and topics of algebraic geometry we consider the set of periods as defined by Kontsevich and Zagier. This special set of numbers contains the set of multiple zeta values and certain values of polylogarithms, which in turn are known to be present in results for Laurent coefficients of certain dimensionally regularized Feynman integrals. By use of the extended sector decomposition algorithm we prove a theorem which implies, that the Laurent coefficients of an arbitrary Feynman integral are periods if the masses and kinematical invariants take values in the Euclidean momentum region. The statement is formulated for an even more general class of integrals, allowing for an arbitrary number of polynomials in the integrand.
Resumo:
In dieser Arbeit wird eine kontinuierliche, kohärente Strahlungsquelle bei 121,56nm, der Lyman-alpha Linie in Wasserstoff, vorgestellt. Diese Lyman-alpha Quelle soll zur zukünftigen Laserkühlung von Antiwasserstoff dienen. Die Strahlung wird durch Vier-Wellen-Mischen in Quecksilberdampf produziert. Dabei wird ein Festkörperlasersystem zur Erzeugung der Fundamentalstrahlen eingesetzt. Zur Erhöhung der nichtlinearen Suszeptibilität wird die 6^1S-7^1S Zwei-Photonen-Resonanz ausgenutzt. Zusätzlich wird mit Hilfe eines durchstimmbaren ultravioletten Lasersystems die 6^1S-6^3P Ein-Photon-Resonanz genutzt, was es erlaubt, die nichtlineare Suszeptibilität des Mischprozesses um Größenordnungen zu erhöhen. Um den Einfluss der 6^1S-6^3P Ein-Photon-Resonanz zu untersuchen, wurden zunächst die Phasenanpassungstemperaturen bei verschiedenen Verstimmungen der ultravioletten Strahlung zur 6^3P Resonanz vermessen und festgestellt, dass kleinere Verstimmungen zu niedrigeren Phasenanpassungstemperaturen führen. Es konnte sowohl theoretisch wie auch experimentell gezeigt werden, dass diese niedrigeren Phasenanpassungstemperaturen bei kleinen Verstimmungen der Erhöhung der Lyman-alpha Erzeugung durch die größere nichtlineare Suszeptibilität bei kleinen Verstimmungen entgegenwirken. Bei immer kleineren Verstimmungen zur 6^3P Resonanz limitiert die Absorption der ultravioletten Strahlung die Lyman-alpha Erzeugung. Ein positiver Effekt der niedrigeren Phasenanpassungstemperaturen ist, dass es möglich wird, auf das bisher nötige Puffergas in der Quecksilber-Dampfzelle zu verzichten, was die Lyman-alpha Erzeugung um einen Faktor 1,7 erhöht. Damit war es möglich, die bisherige Effizienz der Lyman-alpha Erzeugung zu verbessern. Es wurde eine Lyman-alpha Leistung von 0,3nW erreicht. Zusätzlich zum Einfluss der 6^3P Resonanz auf die Lyman-alpha Erzeugung wurde ein weiterer Effekt beobachtet. Durch die Nähe der 6^1S-6^3P Ein-Photon-Resonanz wird auch mehr Besetzung in das obere 7^1S Niveau der Zwei-Photonen-Resonanz gepumpt. Dadurch konnte erstmals eine kontinuierliche Lasertätigkeit auf der 6^1P-7^1S Linie in Quecksilber bei 1014nm beobachtet werden.
Resumo:
Beständig werden Spurenstoffe in die Atmosphäre emittiert, die ihren Ursprung in biogenen oder anthropogenen Quellen haben. Daß es dennoch im allgemeinen nicht zu einer Anreicherung bis hin zu toxischen Konzentrationen kommt, liegt an dem Vermögen der Atmosphäre sich durch Oxidationsprozesse selbst zu reinigen. Eine wichtige Aufgabe kommt dabei dem Hydroxylradikal OH zu, welches tagsüber die Oxidationskapazität der Atmosphäre bestimmt. Hierbei spielen die tropischen Regionen mit einer der höchsten OH-Produktionsraten eine zentrale Rolle. Gleichzeitig sind die tropischen Regenwälder eine bedeutende globale Quelle für Kohlenwasserstoffe, die durch Reaktion mit OH-Radikalen dessen Konzentration und damit die Oxidationskapazität der Atmosphäre herabsetzen. Während der GABRIEL-Meßkampagne 2005 im äquatorialen Südamerika wurde der Einfluß der Regenwaldemissionen auf das HOx-Budget (HOx = OH+HO2) untersucht. Zu diesem Zweck wurde das Radikalmeßinstrument HORUS entwickelt. Im Rahmen dieser Arbeit wurden unterschiedliche Komponenten des Gerätes optimiert, der Meßaufbau ins Flugzeug integriert und Methoden zur Kalibrierung entwickelt. Bei der internationalen Vergleichskampagne HOxComp2005 zeigte HORUS seine Eignung zur Messung von troposphärischen OH- und HO2-Radikalen.rnrnDie durchgeführten HOx-Messungen während der GABRIEL-Meßkampagne sind die ersten ihrer Art, die über einem tropischen Regenwald stattgefunden haben. Im Gegensatz zu den Vorhersagen globaler Modelle wurden unerwartet hohe OH- und HO2-Konzentrationen in der planetaren Grenzschicht des tropischen Regenwalds beobachtet. Der Vergleich der berechneten OH-Produktions- und Verlustraten, die aus dem umfangreichen Datensatz von GABRIEL ermittelt wurden, zeigte, daß hierbei eine wichtige OH-Quelle unberücksichtigt blieb. Mit Hilfe des Boxmodells MECCA, in welchem die gemessenen Daten als Randbedingungen in die Simulationen eingingen, wurden die modellierten OH- und HO2- Konzentrationen im Gleichgewichtszustand den beobachteten Konzentrationen gegenübergestellt. Luftmassen der freien Troposphäre und der maritimen Grenzschicht zeigten eine gute Übereinstimmung zwischen Messung und Modell. Über dem tropischen Regenwald jedoch wurden die beobachteten HOx-Konzentrationen in der planetaren Grenzschicht durch das Modell, vor allem am Nachmittag, signifikant unterschätzt. Dabei lag die Diskrepanz zwischen den beobachteten und simulierten Konzentrationen bei einem mittleren Wert von OHobs/OHmod = 12.2 ± 3.5 und HO2obs/HO2mod = 4.1 ± 1.4. Die Abweichung zwischen Messung und Modell korrelieren hierbei mit der Isoprenkonzentration. Während für niedrige Isoprenmischungsverhältnisse, wie sie über dem Ozean oder in Höhen > 3 km vorherrschten, die Beobachtungen mit den Simulationen innerhalb eines Faktors 1.6±0.7 übereinstimmten, nahm die Unterschätzung durch das Modell für steigende Isoprenmischungsverhältnisse > 200 pptV über dem tropischen Regenwald zu.rnrnDer kondensierte chemische Mechanismus von MECCA wurde mit der ausführlichen Isoprenchemie des ”Master Chemical Mechanism“ überprüft, welches vergleichbare HOx-Konzentrationen lieferte. OH-Simulationen, durchgeführt mit der gemessenen HO2-Konzentration als zusätzliche Randbedingung, zeigten, daß die Konversion zwischen HO2 und OH innerhalb des Modells nicht ausreichend ist. Durch Vernachlässigung der gesamten Isoprenchemie konnte dagegen eine Übereinstimmung zwischen Modell und Messung erreicht werden. Eine OH-Quelle in der gleichen Größenordnung wie die OH-Senke durch Isopren, ist somit zur Beschreibung der beobachteten OH-Konzentration notwendig. Reaktionsmechanismen, die innerhalb der Isoprenchemie die gleiche Anzahl an OH-Radikalen erzeugen wie sie verbrauchen, könnten eine mögliche Ursache sein. Unterschiedliche zusätzliche Reaktionen wurden in die Isoprenabbaumechanismen des Modells implementiert, die zur Erhöhung der OH-Quellstärke führen sollten. Diese bewirkten eine Zunahme der simulierten HO2-Konzentrationen um einen maximalen Faktor von 5 für OH und 2 für HO2. Es wird eine OH-Zyklierungswahrscheinlichkeit r von bis zu 94% gefordert, wie sie für die GABRIEL-Messungen erreicht wurde. Die geringe OH-Zyklierungswahrscheinlichkeit von 38% des Modells zeigte, daß wichtige Zyklierungsvorgänge im chemischen Mechanismus bislang nicht berücksichtigt werden. Zusätzliche Zyklierungsreaktionen innerhalb des Isoprenmechanismus, die auch unter niedrigen NO-Konzentrationen zur Rückbildung von OHRadikalen führen, könnten eine Erklärung für die über dem Regenwald beobachteten hohen OH-Konzentration liefern.rn
Resumo:
Im Rahmen dieser Arbeit wurde ein flugzeuggetragenes Laserablations-Einzelpartikel-Massenspektrometer von Grund auf entworfen, gebaut, charakterisiert und auf verschiedenen Feldmesskampagnen eingesetzt. Das ALABAMA (Aircraft-based Laser ABlation Aerosol MAss Spectrometer) ist in der Lage die chemische Zusammensetzung und Größe von einzelnen Aerosolpartikeln im submikrometer-Bereich (135 – 900 nm) zu untersuchen.rnNach dem Fokussieren in einer aerodynamischen Linse wird dafür zunächst derrnaerodynamische Durchmesser der einzelnen Partikel mit Hilfe einer Flugzeitmessung zwischen zwei Dauerstrichlasern bestimmt. Anschließend werden die zuvor detektierten und klassifizierten Partikel durch einen gezielten Laserpuls einzeln verdampft und ionisiert. Die Ionen werden in einem bipolaren Flugzeit-Massenspektrometer entsprechend ihrem Masse zu- Ladungs Verhältnisses getrennt und detektiert. Die entstehenden Massenspektren bieten einen detaillierten Einblick in die chemische Struktur der einzelnen Partikel.rnDas gesamte Instrument wurde so konzipiert, dass es auf dem neuen Höhenforschungsflugzeug HALO und anderen mobilen Plattformen eingesetzt werden kann. Um dies zu ermöglichen wurden alle Komponenten in einem Rahmen mit weniger als 0.45 m³ Volumen untergebracht. Das gesamte Instrument inklusive Rahmen wiegt weniger als 150 kg und erfüllt die strengen sicherheitsvorschriften für den Betrieb an Bord von Forschungsflugzeugen. Damit ist ALABAMA das kleinste und leichteste Instrument seiner Art.rnNach dem Aufbau wurden die Eigenschaften und Grenzen aller Komponenten detailliert im Labor und auf Messkampagnen charakterisiert. Dafür wurden zunächst die Eigenschaften des Partikelstrahls, wie beispielsweise Strahlbreite und –divergenz, ausführlich untersucht. Die Ergebnisse waren wichtig, um die späteren Messungen der Detektions- und Ablationseffizienz zu validieren.rnBei den anschließenden Effizienzmessungen wurde gezeigt, dass abhängig von ihrer Größe und Beschaffenheit, bis zu 86 % der vorhandenen Aerosolpartikel erfolgreich detektiert und größenklassifiziert werden. Bis zu 99.5 % der detektierten Partikel konnten ionisiert und somit chemisch untersucht werden. Diese sehr hohen Effizienzen sind insbesondere für Messungen in großer Höhe entscheidend, da dort zum Teil nur sehr geringe Partikelkonzentrationen vorliegen.rnDas bipolare Massenspektrometer erzielt durchschnittliche Massenauflösungen von bis zu R=331. Während Labor- und Feldmessungen konnten dadurch Elemente wie Au, Rb, Co, Ni, Si, Ti und Pb eindeutig anhand ihres Isotopenmusters zugeordnet werden.rnErste Messungen an Bord eines ATR-42 Forschungsflugzeuges während der MEGAPOLI Kampagne in Paris ergaben einen umfassenden Datensatz von Aerosolpartikeln innerhalb der planetaren Grenzschicht. Das ALABAMA konnte unter harten physischen Bedingungen (Temperaturen > 40°C, Beschleunigungen +/- 2 g) verlässlich und präzise betrieben werden. Anhand von charakteristischen Signalen in den Massenspektren konnten die Partikel zuverlässig in 8 chemische Klassen unterteilt werden. Einzelne Klassen konnten dabei bestimmten Quellen zugeordnet werden. So ließen sich beispielsweise Partikel mit starkerrnNatrium- und Kaliumsignatur eindeutig auf die Verbrennung von Biomasse zurückführen.rnALABAMA ist damit ein wertvolles Instrument um Partikel in-situ zu charakterisieren und somit verschiedenste wissenschaftliche Fragestellungen, insbesondere im Bereich der Atmosphärenforschung, zu untersuchen.
Resumo:
The goal of this thesis was an experimental test of an effective theory of strong interactions at low energy, called Chiral Perturbation Theory (ChPT). Weak decays of kaon mesons provide such a test. In particular, K± → π±γγ decays are interesting because there is no tree-level O(p2) contribution in ChPT, and the leading contributions start at O(p4). At this order, these decays include one undetermined coupling constant, ĉ. Both the branching ratio and the spectrum shape of K± → π±γγ decays are sensitive to this parameter. O(p6) contributions to K± → π±γγ ChPT predict a 30-40% increase in the branching ratio. From the measurement of the branching ratio and spectrum shape of K± → π±γγ decays, it is possible to determine a model dependent value of ĉ and also to examine whether the O(p6) corrections are necessary and enough to explain the rate.About 40% of the data collected in the year 2003 by the NA48/2 experiment have been analyzed and 908 K± → π±γγ candidates with about 8% background contamination have been selected in the region with z = mγγ2/mK2 ≥ 0.2. Using 5,750,121 selected K± → π±π0 decays as normalization channel, a model independent differential branching ratio of K± → π±γγ has been measured to be:BR(K± → π±γγ, z ≥ 0.2) = (1.018 ± 0.038stat ± 0.039syst ± 0.004ext) ∙10-6. From the fit to the O(p6) ChPT prediction of the measured branching ratio and the shape of the z-spectrum, a value of ĉ = 1.54 ± 0.15stat ± 0.18syst has been extracted. Using the measured ĉ value and the O(p6) ChPT prediction, the branching ratio for z =mγγ2/mK2 <0.2 was computed and added to the measured result. The value obtained for the total branching ratio is:BR(K± → π±γγ) = (1.055 ± 0.038stat ± 0.039syst ± 0.004ext + 0.003ĉ -0.002ĉ) ∙10-6, where the last error reflects the uncertainty on ĉ.The branching ratio result presented here agrees with previous experimental results, improving the precision of the measurement by at least a factor of five. The precision on the ĉ measurement has been improved by approximately a factor of three. A slight disagreement with the O(p6) ChPT branching ratio prediction as a function of ĉ has been observed. This mightrnbe due to the possible existence of non-negligible terms not yet included in the theory. Within the scope of this thesis, η-η' mixing effects in O(p4) ChPT have also been measured.
Resumo:
Heutzutage gewähren hochpräzise Massenmessungen mit Penning-Fallen tiefe Einblicke in die fundamentalen Eigenschaften der Kernmaterie. Zu diesem Zweck wird die freie Zyklotronfrequenz eines Ions bestimmt, das in einem starken, homogenen Magnetfeld gespeichert ist. Am ISOLTRAP-Massenspektrometer an ISOLDE / CERN können die Massen von kurzlebigen, radioaktiven Nukliden mit Halbwertszeiten bis zu einigen zehn ms mit einer Unsicherheit in der Größenordnung von 10^-8 bestimmt werden. ISOLTRAP besteht aus einem Radiofrequenz-Quadrupol zum akkumulieren der von ISOLDE gelieferten Ionen, sowie zwei Penning-Fallen zum säubern und zur Massenbestimmung der Ionen. Innerhalb dieser Arbeit wurden die Massen von neutronenreichen Xenon- und Radonisotopen (138-146Xe und 223-229Rn) gemessen. Für elf davon wurde zum ersten Mal die Masse direkt bestimmt; 229Rn wurde im Zuge dieses Experimentes sogar erstmalig beobachtet und seine Halbwertszeit konnte zu ungefähr 12 s bestimmt werden. Da die Masse eines Nuklids alle Wechselwirkungen innerhalb des Kerns widerspiegelt, ist sie einzigartig für jedes Nuklid. Eine dieser Wechselwirkungen, die Wechselwirkung zwischen Protonen und Neutronen, führt zum Beispiel zu Deformationen. Das Ziel dieser Arbeit ist eine Verbindung zwischen kollektiven Effekten, wie Deformationen und Doppeldifferenzen von Bindungsenergien, sogenannten deltaVpn-Werten zu finden. Insbesondere in den hier untersuchten Regionen zeigen deltaVpn-Werte ein sehr ungewöhnliches Verhalten, das sich nicht mit einfachen Argumenten deuten lässt. Eine Erklärung könnte das Auftreten von Oktupoldeformationen in diesen Gebieten sein. Nichtsdestotrotz ist eine quantitative Beschreibung von deltaVpn-Werten, die den Effekt von solchen Deformationen berücksichtigt mit modernen Theorien noch nicht möglich.
Resumo:
Wir untersuchen die numerische Lösung des inversen Streuproblems der Rekonstruktion der Form, Position und Anzahl endlich vieler perfekt leitender Objekte durch Nahfeldmessungen zeitharmonischer elektromagnetischer Wellen mit Hilfe von Metalldetektoren. Wir nehmen an, dass sich die Objekte gänzlich im unteren Halbraum eines unbeschränkten zweischichtigen Hintergrundmediums befinden. Wir nehmen weiter an, dass der obere Halbraum mit Luft und der untere Halbraum mit Erde gefüllt ist. Wir betrachten zuerst die physikalischen Grundlagen elektromagnetischer Wellen, aus denen wir zunächst ein vereinfachtes mathematisches Modell ableiten, in welchem wir direkt das elektromagnetische Feld messen. Dieses Modell erweitern wir dann um die Messung des elektromagnetischen Feldes von Sendespulen mit Hilfe von Empfangsspulen. Für das vereinfachte Modell entwickeln wir, unter Verwendung der Theorie des zugehörigen direkten Streuproblems, ein nichtiteratives Verfahren, das auf der Idee der sogenannten Faktorisierungsmethode beruht. Dieses Verfahren übertragen wir dann auf das erweiterte Modell. Wir geben einen Implementierungsvorschlag der Rekonstruktionsmethode und demonstrieren an einer Reihe numerischer Experimente die Anwendbarkeit des Verfahrens. Weiterhin untersuchen wir mehrere Abwandlungen der Methode zur Verbesserung der Rekonstruktionen und zur Verringerung der Rechenzeit.
Resumo:
Diese Dissertation untersucht den Einfluss von Eiskristallform und räumlicher Inhomogenität von Zirren auf das Retrieval von optischer Wolkendicke und effektivem Eispartikelradius. Zu diesem Zweck werden flugzeuggetragene spektrale Messungen solarer Strahlung sowie solare und langwellige Strahlungstransfersimulationen durchgeführt. Flugzeuggetragene spektrale aufwärtsgerichtete Radianzen (Strahldichten) sind mit dem SMART-Albedometer (Spectral Modular Airborne Radiation measurement sysTem) während des CIRCLE-2 (CIRrus CLoud Experiment-2) Feldexperiments im Mai 2007 gemessen worden. Basierend auf diesen Radianzdaten werden mittels eines Wolkenretrievalalgorithmus optische Wolkendicken und effektive Eispartikelradien anhand von eindimensionalen Strahlungstransferrechnungen bestimmt. Die Auswirkung der Annahme unterschiedlicher Eiskristallformen auf die retrievten Parameter wird durch Variation der Einfachstreueigenschaften der Eispartikel untersucht. Darüber hinaus wird mittels Strahlungstransferrechnungen auch der Einfluss der Eiskristallform auf den Strahlungsantrieb von Eiswolken ermittelt. Die Frage nach dem relativen Einfluss von räumlicher Wolkeninhomogenität und Eiskristallform wird anhand von dreidimensionalen und independent pixel approximation (IPA) Strahlungssimulationen untersucht. Die Analyse basiert auf einer Modelleiswolke, die aus Daten des NASA (National Aeronautics and Space Administration) TC4 (Tropical Composition, Cloud, and Climate Coupling) Feldexperiments im Sommer 2007 in Costa Rica erzeugt wurde. Lokal gesehen können beide Effekte - Eiskristallform und räumliche Eiswolkeninhomogenität - die gleiche Grössenordnung haben und zu einer Unter- bzw. Überschätzung der retrievten Parameter um 40 – 60% führen. Gemittelt über die ganze Wolke ist jedoch der Einfluss der Eiskristallform viel bedeutender als der von räumlichen Inhomogenitäten.
Resumo:
To aid the design of organic semiconductors, we study the charge transport properties of organic liquid crystals, i.e. hexabenzocoronene and carbazole macrocycle, and single crystals, i.e. rubrene, indolocarbazole and benzothiophene derivatives (BTBT, BBBT). The aim is to find structure-property relationships linking the chemical structure as well as the morphology with the bulk charge carrier mobility of the compounds. To this end, molecular dynamics (MD) simulations are performed yielding realistic equilibrated morphologies. Partial charges and molecular orbitals are calculated based on single molecules in vacuum using quantum chemical methods. The molecular orbitals are then mapped onto the molecular positions and orientations, which allows calculation of the transfer integrals between nearest neighbors using the molecular orbital overlap method. Thus we obtain realistic transfer integral distributions and their autocorrelations. In case of organic crystals the differences between two descriptions of charge transport, namely semi-classical dynamics (SCD) in the small polaron limit and kinetic Monte Carlo (KMC) based on Marcus rates, are studied. The liquid crystals are investigated solely in the hopping limit. To simulate the charge dynamics using KMC, the centers of mass of the molecules are mapped onto lattice sites and the transfer integrals are used to compute the hopping rates. In the small polaron limit, where the electronic wave function is spread over a limited number of neighboring molecules, the Schroedinger equation is solved numerically using a semi-classical approach. The results are compared for the different compounds and methods and, where available, with experimental data. The carbazole macrocycles form columnar structures arranged on a hexagonal lattice with side chains facing inwards, so columns can closely approach each other allowing inter-columnar and thus three-dimensional transport. When taking only intra-columnar transport into account, the mobility is orders of magnitude lower than in the three-dimensional case. BTBT is a promising material for solution-processed organic field-effect transistors. We are able to show that, on the time-scales of charge transport, static disorder due to slow side chain motions is the main factor determining the mobility. The resulting broad transfer integral distributions modify the connectivity of the system but sufficiently many fast percolation paths remain for the charges. Rubrene, indolocarbazole and BBBT are examples of crystals without significant static disorder. The high mobility of rubrene is explained by two main features: first, the shifted cofacial alignment of its molecules, and second, the high center of mass vibrational frequency. In comparsion to SCD, only KMC based on Marcus rates is capable of describing neighbors with low coupling and of taking static disorder into account three-dimensionally. Thus it is the method of choice for crystalline systems dominated by static disorder. However, it is inappropriate for the case of strong coupling and underestimates the mobility of well-ordered crystals. SCD, despite its one-dimensionality, is valuable for crystals with strong coupling and little disorder. It also allows correct treatment of dynamical effects, such as intermolecular vibrations of the molecules. Rate equations are incapable of this, because simulations are performed on static snapshots. We have thus shown strengths and weaknesses of two state of the art models used to study charge transport in organic compounds, partially developed a program to compute and visualize transfer integral distributions and other charge transport properties, and found structure-mobility relations for several promising organic semiconductors.
Resumo:
This thesis studies molecular dynamics simulations on two levels of resolution: the detailed level of atomistic simulations, where the motion of explicit atoms in a many-particle system is considered, and the coarse-grained level, where the motion of superatoms composed of up to 10 atoms is modeled. While atomistic models are capable of describing material specific effects on small scales, the time and length scales they can cover are limited due to their computational costs. Polymer systems are typically characterized by effects on a broad range of length and time scales. Therefore it is often impossible to atomistically simulate processes, which determine macroscopic properties in polymer systems. Coarse-grained (CG) simulations extend the range of accessible time and length scales by three to four orders of magnitude. However, no standardized coarse-graining procedure has been established yet. Following the ideas of structure-based coarse-graining, a coarse-grained model for polystyrene is presented. Structure-based methods parameterize CG models to reproduce static properties of atomistic melts such as radial distribution functions between superatoms or other probability distributions for coarse-grained degrees of freedom. Two enhancements of the coarse-graining methodology are suggested. Correlations between local degrees of freedom are implicitly taken into account by additional potentials acting between neighboring superatoms in the polymer chain. This improves the reproduction of local chain conformations and allows the study of different tacticities of polystyrene. It also gives better control of the chain stiffness, which agrees perfectly with the atomistic model, and leads to a reproduction of experimental results for overall chain dimensions, such as the characteristic ratio, for all different tacticities. The second new aspect is the computationally cheap development of nonbonded CG potentials based on the sampling of pairs of oligomers in vacuum. Static properties of polymer melts are obtained as predictions of the CG model in contrast to other structure-based CG models, which are iteratively refined to reproduce reference melt structures. The dynamics of simulations at the two levels of resolution are compared. The time scales of dynamical processes in atomistic and coarse-grained simulations can be connected by a time scaling factor, which depends on several specific system properties as molecular weight, density, temperature, and other components in mixtures. In this thesis the influence of molecular weight in systems of oligomers and the situation in two-component mixtures is studied. For a system of small additives in a melt of long polymer chains the temperature dependence of the additive diffusion is predicted and compared to experiments.