944 resultados para orders of worth
Resumo:
Eine wichtige Komponente des Standardmodells der Teilchenphysik bildet der Higgs-Mechanismus, der benötigt wird um den vom Standardmodell beschriebenen Teilchen Masse zu verleihen. Dieser Mechanismus beinhaltet jedoch ein weiteres schweres Elementarteilchen das bislang noch nich beobachtet werden konnte. Die Suche nach diesem Teilchen ist eines Hauptziele der derzeitigen Forschung an Teilchenbeschleunigern. Diese Arbeit untersucht die vom D0-Detektor am Tevatron des Fermi National Accelerator Laboratory (FNAL) aufgezeichneten Daten von ppbar-Kollisionen bei einer Schwerpunktsenergie von sqrt{s}=1.96 TeV, um im Kanal WH -> enu bb nach einem leichten Higgs-Boson zu suchen. Darüber hinaus wird der Produktionswirkungsquerschnitt der Wbb-Produktion ermittelt. Für die Analyse stand eine integrierte Luminosität von L=255pb^{-1} zur Verfügung. Zur Selektion dieser Prozesse, werden Ereignisse ausgewählt, die Elektronen und fehlenden Transversalimpuls enthalten, sowie mindestens zwei Jets, die sich als b-Jets identifizieren lassen. Um eine effiziente Selektion zu erhalten, wurden Schnitte auf verschiedene Kenngrößen entwickelt, getestet und optimiert. Aus den selektierten Ereignissen wird der Wbb-Wirkungsquerschnitt ermittelt, der für Ereignisse angegeben wird, in denen die b-Quarks p_T>8 GeV und |eta|<3 erfüllen. Der unter Berücksichtigung des Verzweigungsverhältnisses BR(W->enu)=0.108 errechnete Wert ist sigma(Wbb)=21.8 pb (+15.5; -20.0 pb(sys+stat)). Wegen der geringen Signifikanz der Messung von etwa 1.2sigma wurden die Ereigniszahlen auch zur Berechnung einer oberen Grenze auf den Wirkungsquerschnitt verwendet, die sich bei einem Konfidenzniveau von 95% zu sigma^95(Wbb)=60.9pb ergibt. Ebenso wurden Grenzen auf den WH-Produktionswirkungsquerschnitt ermittelt. Dafür wurde die statistische Methode von Feldman und Cousins angewandt, nachdem sie nach den Vorschlägen von Conrad et al. erweitert worden war, um systematische Unsicherheiten zu berücksichtigen. Für ein Standardmodell Higgs-Boson der Masse 115 GeV kann eine obere Grenze auf den Produktionswirkungsquerschnitt von sigma^{95} (WH)=12.2pb angegeben werden. Für höhere Massen bis 135 GeV werden ähnliche Grenzen ermittelt.
Resumo:
Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.
Resumo:
The hard X-ray band (10 - 100 keV) has been only observed so far by collimated and coded aperture mask instruments, with a sensitivity and an angular resolution lower than two orders of magnitude as respects the current X-ray focusing telescopes operating below 10 - 15 keV. The technological advance in X-ray mirrors and detection systems is now able to extend the X-ray focusing technique to the hard X-ray domain, filling the gap in terms of observational performances and providing a totally new deep view on some of the most energetic phenomena of the Universe. In order to reach a sensitivity of 1 muCrab in the 10 - 40 keV energy range, a great care in the background minimization is required, a common issue for all the hard X-ray focusing telescopes. In the present PhD thesis, a comprehensive analysis of the space radiation environment, the payload design and the resulting prompt X-ray background level is presented, with the aim of driving the feasibility study of the shielding system and assessing the scientific requirements of the future hard X-ray missions. A Geant4 based multi-mission background simulator, BoGEMMS, is developed to be applied to any high energy mission for which the shielding and instruments performances are required. It allows to interactively create a virtual model of the telescope and expose it to the space radiation environment, tracking the particles along their path and filtering the simulated background counts as a real observation in space. Its flexibility is exploited to evaluate the background spectra of the Simbol-X and NHXM mission, as well as the soft proton scattering by the X-ray optics and the selection of the best shielding configuration. Altough the Simbol-X and NHXM missions are the case studies of the background analysis, the obtained results can be generalized to any future hard X-ray telescope. For this reason, a simplified, ideal payload model is also used to select the major sources of background in LEO. All the results are original contributions to the assessment studies of the cited missions, as part of the background groups activities.
Resumo:
Die vorliegende Dissertation beschreibt die Entwicklung, den Aufbau und die Erprobung eines neuartigen lasermassenspektrometrischen Nachweises des Ultraspurenisotops 236U. Das Nuklid 236U wird vorwiegend in Kernreaktoren durch Neutroneneinfang aus 235U gebildet und dient damit als Schlüsselisotop zur Unterscheidung anthropogenen Urans von natürlichem Uran-Vorkommen. Mit seinem Nachweis wird die Untersuchung der Migration von Kernbrennstoff in der Umwelt und die Beantwortung kritischer Fragen in der nuklearen Forensik ermöglicht. Im Rahmen dieser Arbeit wurde das Verfahren der hochauflösenden Resonanzionisations-Massenspektrometrie auf die Anforderungen des selektiven Nachweises von Uran-Isotopen angepasst. Wesentliche Schritte waren hierbei die Untersuchung einer effizienten Atomisation von Uran-Proben, die Identifikation atomarer und autoionisierender Zustände für eine resonante Anregungsleiter, die vollständige Spezifikation der Anregungsleiter für alle Uran-Isotope und schließlich die Umsetzung der Erkenntnisse in ein analytisches Messverfahren. Die optische Selektivität des Verfahrens konnte durch Dichtematrixrechnungen zu ca. 14 Größenordnungen abgeschätzt werden; die Nachweisgrenze des Verfahrens für das Isotopenverhältnis 236U / 238U ist dabei gegenwärtig durch Untergrund begrenzt und beträgt ca. 3 · 10−8. Mit diesen Spezifikationen konnte die Linearität und Präzision des Nachweisverfahrens über einen dynamischen Bereich von vier Größenordnungen nachgewiesen werden.
Resumo:
Aunque esta tesis puede leerse desde diferentes perspectivas, tiene una voluntad fundamental: explicar, desde la metodología propia de la historia conceptual, la racionalidad específica del llamado fascismo español. Centra su interés en la figura de Ramiro Ledesma Ramos (1905-1936), fundador del primer movimiento fascista español. Ledesma ideó un proyecto de modernización de España que sólo podía pasar por la organización de un Estado total. Trató de crear un movimiento de masas de corte fascista con capacidad para fundar un Estado total capaz de ser una alternativa viable al liberalismo republicano y al socialismo. El fascismo español emergerá como una experiencia temporal propia de la modernidad. Buscará revitalizar y acelerar un proceso, el moderno, que a la luz de los jóvenes exaltados de principios de siglo se percibía como agotado y decadente. El planteamiento de Ledesma brotaba de la necesidad de combatir aquellas presuntas fuerzas degenerativas (liberalismo, comunismo, conservadurismo, etc.) de la historia contemporánea española para erigir una nueva modernidad basada en el renacimiento de la nación. Al mismo tiempo, se pretende poner en relieve la eficacia de la acción histórica planteada por el pensamiento reaccionario español. Bajo sus coordenadas, la nación jamás desarrollaría los rasgos sublimados de la política moderna europea. Jamás abandonó los pretendidos órdenes del derecho natural del clasicismo católico que, en última instancia, limitaban la potencia absoluta de cualquier soberano político. Esta particularidad histórica, arrastrada desde la primera modernidad, impedirá con obstinación cualquier oleada revolucionaria que supusiera la autonomización de la esfera política y por tanto, la instauración de un poder totalitario. De hecho, cuando se instauré la dictadura del Franco, a lo más que se llegaría, sería a un Estado mínimo, que bajo los presupuestos del tradicionalismo, dejaba a su suerte las dinámicas económicas.
Resumo:
In dieser Arbeit wird eine kontinuierliche, kohärente Strahlungsquelle bei 121,56nm, der Lyman-alpha Linie in Wasserstoff, vorgestellt. Diese Lyman-alpha Quelle soll zur zukünftigen Laserkühlung von Antiwasserstoff dienen. Die Strahlung wird durch Vier-Wellen-Mischen in Quecksilberdampf produziert. Dabei wird ein Festkörperlasersystem zur Erzeugung der Fundamentalstrahlen eingesetzt. Zur Erhöhung der nichtlinearen Suszeptibilität wird die 6^1S-7^1S Zwei-Photonen-Resonanz ausgenutzt. Zusätzlich wird mit Hilfe eines durchstimmbaren ultravioletten Lasersystems die 6^1S-6^3P Ein-Photon-Resonanz genutzt, was es erlaubt, die nichtlineare Suszeptibilität des Mischprozesses um Größenordnungen zu erhöhen. Um den Einfluss der 6^1S-6^3P Ein-Photon-Resonanz zu untersuchen, wurden zunächst die Phasenanpassungstemperaturen bei verschiedenen Verstimmungen der ultravioletten Strahlung zur 6^3P Resonanz vermessen und festgestellt, dass kleinere Verstimmungen zu niedrigeren Phasenanpassungstemperaturen führen. Es konnte sowohl theoretisch wie auch experimentell gezeigt werden, dass diese niedrigeren Phasenanpassungstemperaturen bei kleinen Verstimmungen der Erhöhung der Lyman-alpha Erzeugung durch die größere nichtlineare Suszeptibilität bei kleinen Verstimmungen entgegenwirken. Bei immer kleineren Verstimmungen zur 6^3P Resonanz limitiert die Absorption der ultravioletten Strahlung die Lyman-alpha Erzeugung. Ein positiver Effekt der niedrigeren Phasenanpassungstemperaturen ist, dass es möglich wird, auf das bisher nötige Puffergas in der Quecksilber-Dampfzelle zu verzichten, was die Lyman-alpha Erzeugung um einen Faktor 1,7 erhöht. Damit war es möglich, die bisherige Effizienz der Lyman-alpha Erzeugung zu verbessern. Es wurde eine Lyman-alpha Leistung von 0,3nW erreicht. Zusätzlich zum Einfluss der 6^3P Resonanz auf die Lyman-alpha Erzeugung wurde ein weiterer Effekt beobachtet. Durch die Nähe der 6^1S-6^3P Ein-Photon-Resonanz wird auch mehr Besetzung in das obere 7^1S Niveau der Zwei-Photonen-Resonanz gepumpt. Dadurch konnte erstmals eine kontinuierliche Lasertätigkeit auf der 6^1P-7^1S Linie in Quecksilber bei 1014nm beobachtet werden.
Resumo:
Dextran-based polymers are versatile hydrophilic materials, which can provide functionalized surfaces in various areas including biological and medical applications. Functional, responsive, dextran based hydrogels are crosslinked, dextran based polymers allowing the modulation of response towards external stimuli. The controlled modulation of hydrogel properties towards specific applications and the detailed characterization of the optical, mechanical, and chemical properties are of strong interest in science and further applications. Especially, the structural characteristics of swollen hydrogel matrices and the characterization of their variations upon environmental changes are challenging. Depending on their properties hydrogels are applied as actuators, biosensors, in drug delivery, tissue engineering, or for medical coatings. However, the field of possible applications still shows potential to be expanded. rnSurface attached hydrogel films with a thickness of several micrometers can serve as waveguiding matrix for leaky optical waveguide modes. On the basis of highly swelling and waveguiding dextran based hydrogel films an optical biosensor concept was developed. The synthesis of a dextran based hydrogel matrix, its functionalization to modulate its response towards external stimuli, and the characterization of the swollen hydrogel films were main interests within this biosensor project. A second focus was the optimization of the hydrogel characteristics for cell growth with the aim of creating scaffolds for bone regeneration. Matrix modification towards successful cell growth experiments with endothelial cells and osteoblasts was achieved.rnA photo crosslinkable, carboxymethylated dextran based hydrogel (PCMD) was synthesized and characterized in terms of swelling behaviour and structural properties. Further functionalization was carried out before and after crosslinking. This functionalization aimed towards external manipulation of the swelling degree and the charge of the hydrogel matrix important for biosensor experiments as well as for cell adhesion. The modulation of functionalized PCMD hydrogel responses to pH, ion concentration, electrochemical switching, or a magnetic force was investigated. rnThe PCMD hydrogel films were optically characterized by combining surface plasmon resonance (SPR) and optical waveguide mode spectroscopy (OWS). This technique allows a detailed analysis of the refractive index profile perpendicular to the substrate surface by applying the Wentzel Kramers Brillouin (WKB) approximation. rnIn order to perform biosensor experiments, analyte capturing units such as proteins or antibodies were covalently coupled to the crosslinked hydrogel backbone by applying active ester chemistry. Consequently, target analytes could be located inside the waveguiding matrix. By using labeled analytes, fluorescence enhancement was achieved by fluorescence excitation with the electromagnetic field in the center of the optical waveguide modes. The fluorescence excited by the evanescent electromagnetic field of the surface plasmon was 2 3 orders of magnitude lower. Furthermore, the signal to noise ratio was improved by the fluorescence excitation with leaky optical waveguide modes.rnThe applicability of the PCMD hydrogel sensor matrix for clinically relevant samples was proofed in a cooperation project for the detection of PSA in serum with long range surface plasmon spectroscopy (LRSP) and fluorescence excitation by LRSP (LR SPFS). rn
Resumo:
This thesis studies molecular dynamics simulations on two levels of resolution: the detailed level of atomistic simulations, where the motion of explicit atoms in a many-particle system is considered, and the coarse-grained level, where the motion of superatoms composed of up to 10 atoms is modeled. While atomistic models are capable of describing material specific effects on small scales, the time and length scales they can cover are limited due to their computational costs. Polymer systems are typically characterized by effects on a broad range of length and time scales. Therefore it is often impossible to atomistically simulate processes, which determine macroscopic properties in polymer systems. Coarse-grained (CG) simulations extend the range of accessible time and length scales by three to four orders of magnitude. However, no standardized coarse-graining procedure has been established yet. Following the ideas of structure-based coarse-graining, a coarse-grained model for polystyrene is presented. Structure-based methods parameterize CG models to reproduce static properties of atomistic melts such as radial distribution functions between superatoms or other probability distributions for coarse-grained degrees of freedom. Two enhancements of the coarse-graining methodology are suggested. Correlations between local degrees of freedom are implicitly taken into account by additional potentials acting between neighboring superatoms in the polymer chain. This improves the reproduction of local chain conformations and allows the study of different tacticities of polystyrene. It also gives better control of the chain stiffness, which agrees perfectly with the atomistic model, and leads to a reproduction of experimental results for overall chain dimensions, such as the characteristic ratio, for all different tacticities. The second new aspect is the computationally cheap development of nonbonded CG potentials based on the sampling of pairs of oligomers in vacuum. Static properties of polymer melts are obtained as predictions of the CG model in contrast to other structure-based CG models, which are iteratively refined to reproduce reference melt structures. The dynamics of simulations at the two levels of resolution are compared. The time scales of dynamical processes in atomistic and coarse-grained simulations can be connected by a time scaling factor, which depends on several specific system properties as molecular weight, density, temperature, and other components in mixtures. In this thesis the influence of molecular weight in systems of oligomers and the situation in two-component mixtures is studied. For a system of small additives in a melt of long polymer chains the temperature dependence of the additive diffusion is predicted and compared to experiments.
Resumo:
In der vorliegenden Arbeit werden Entwicklungen zur Optimierung von Selektivität und Effizienz von Resonanzionisations-Laserionenquellen vorgestellt. Mit der Perspektive auf die Anwendungen radioaktiver Ionenstrahlen in der Grundlagenforschung sowie auf Fragestellungen in der Ultraspurenanalytik wurden verschiedene Methoden entwickelt und erprobt: Auf Seiten der Grundlagenforschung wurden zwei komplementäre Ansätze, die Konstruktion von Ionenquellen aus Materialien niedriger Austrittsarbeit und die Weiterentwicklung der Laserionenquelle und -falle LIST umgesetzt. Hierdurch konnte die Selektivität der Resonanzionisation in on-line Tests um einige Gröÿenordnungen verbessert werden. Für die Ultraspurenanalytik wurden speziell angepasste, hocheffiziente Ionenquellen entwickelt. Mit diesen Ionenquellen wurde für die Resonanzionisation von Gallium eine Ionisationseffizienz von 67 % demonstriert, für den Ultraspurennachweis des im Zusammenhang der nuklearen Endlagerung wichtigen Radioisotops 99g-Technetium wurde auf dieser Grundlage eine Nachweisgrenze von weniger als 10^6 Atomen gezeigt.
Resumo:
Die Entstehung eines Marktpreises für einen Vermögenswert kann als Superposition der einzelnen Aktionen der Marktteilnehmer aufgefasst werden, die damit kumulativ Angebot und Nachfrage erzeugen. Dies ist in der statistischen Physik mit der Entstehung makroskopischer Eigenschaften vergleichbar, die von mikroskopischen Wechselwirkungen zwischen den beteiligten Systemkomponenten hervorgerufen werden. Die Verteilung der Preisänderungen an Finanzmärkten unterscheidet sich deutlich von einer Gaußverteilung. Dies führt zu empirischen Besonderheiten des Preisprozesses, zu denen neben dem Skalierungsverhalten nicht-triviale Korrelationsfunktionen und zeitlich gehäufte Volatilität zählen. In der vorliegenden Arbeit liegt der Fokus auf der Analyse von Finanzmarktzeitreihen und den darin enthaltenen Korrelationen. Es wird ein neues Verfahren zur Quantifizierung von Muster-basierten komplexen Korrelationen einer Zeitreihe entwickelt. Mit dieser Methodik werden signifikante Anzeichen dafür gefunden, dass sich typische Verhaltensmuster von Finanzmarktteilnehmern auf kurzen Zeitskalen manifestieren, dass also die Reaktion auf einen gegebenen Preisverlauf nicht rein zufällig ist, sondern vielmehr ähnliche Preisverläufe auch ähnliche Reaktionen hervorrufen. Ausgehend von der Untersuchung der komplexen Korrelationen in Finanzmarktzeitreihen wird die Frage behandelt, welche Eigenschaften sich beim Wechsel von einem positiven Trend zu einem negativen Trend verändern. Eine empirische Quantifizierung mittels Reskalierung liefert das Resultat, dass unabhängig von der betrachteten Zeitskala neue Preisextrema mit einem Anstieg des Transaktionsvolumens und einer Reduktion der Zeitintervalle zwischen Transaktionen einhergehen. Diese Abhängigkeiten weisen Charakteristika auf, die man auch in anderen komplexen Systemen in der Natur und speziell in physikalischen Systemen vorfindet. Über 9 Größenordnungen in der Zeit sind diese Eigenschaften auch unabhängig vom analysierten Markt - Trends, die nur für Sekunden bestehen, zeigen die gleiche Charakteristik wie Trends auf Zeitskalen von Monaten. Dies eröffnet die Möglichkeit, mehr über Finanzmarktblasen und deren Zusammenbrüche zu lernen, da Trends auf kleinen Zeitskalen viel häufiger auftreten. Zusätzlich wird eine Monte Carlo-basierte Simulation des Finanzmarktes analysiert und erweitert, um die empirischen Eigenschaften zu reproduzieren und Einblicke in deren Ursachen zu erhalten, die zum einen in der Finanzmarktmikrostruktur und andererseits in der Risikoaversion der Handelsteilnehmer zu suchen sind. Für die rechenzeitintensiven Verfahren kann mittels Parallelisierung auf einer Graphikkartenarchitektur eine deutliche Rechenzeitreduktion erreicht werden. Um das weite Spektrum an Einsatzbereichen von Graphikkarten zu aufzuzeigen, wird auch ein Standardmodell der statistischen Physik - das Ising-Modell - auf die Graphikkarte mit signifikanten Laufzeitvorteilen portiert. Teilresultate der Arbeit sind publiziert in [PGPS07, PPS08, Pre11, PVPS09b, PVPS09a, PS09, PS10a, SBF+10, BVP10, Pre10, PS10b, PSS10, SBF+11, PB10].
Resumo:
Advanced optical biosensor platforms exploiting long range surface plasmons (LRSPs) and responsive N-isopropylacrylamide (NIPAAm) hydrogel binding matrix for the detection of protein and bacterial pathogen analytes were carried out. LRSPs are optical waves that originate from coupling of surface plasmons on the opposite sites of a thin metallic film embedded between two dielectrics with similar refractive indices. LRSPs exhibit orders of magnitude lower damping and more extended profile of field compared to regular surface plasmons (SPs). Their excitation is accompanied with narrow resonance and provides stronger enhancement of electromagnetic field intensity that can advance the sensitivity of surface plasmon resonance (SPR) and surface plasmon-enhanced fluorescence spectroscopy (SPFS) biosensors. Firstly, we investigated thin gold layers deposited on fluoropolymer surface for the excitation of LRSPs. The study indicates that the morphological, optical and electrical properties of gold film can be changed by the surface energy of fluoropolymer and affect the performance of a SPFS biosensor. A photo-crosslinkable NIPAAm hydrogel was grafted to the sensor surface in order to serve as a binding matrix. It was modified with bio-recognition elements (BREs) via amine coupling chemistry and offered the advantage of large binding capacity, stimuli responsive properties and good biocompatibility. Through experimental observations supported by numerical simulations describing diffusion mass transfer and affinity binding of target molecules in the hydrogel, the hydrogel binding matrix thickness, concentration of BREs and the profile of the probing evanescent field was optimized. Hydrogel with a up to micrometer thickness was shown to support additional hydrogel optical waveguide (HOW) mode which was employed for probing affinity binding events in the gel by means of refractometric and fluorescence measurements. These schemes allow to reach limits of detection (LODs) at picomolar and femtomolar levels, respectively. Besides hydrogel based experiments for detection of molecular analytes, long range surface plasmon-enhanced fluorescence spectroscopy (LRSP-FS) was employed for detection of bacterial pathogens. The influence of capture efficiency of bacteria on surfaces and the profile of the probing field on sensor response were investigated. The potential of LRSP-FS with extended evanescent field is demonstrated for detection of pathogenic E. coli O157:H7 on sandwich immunoassays . LOD as low as 6 cfu mL-1 with a detection time of 40 minutes was achieved.rn
Resumo:
In dieser Arbeit wurden umfangreiche laserspektroskopische Studien mit dem Zielrneines verbesserten Verständnisses höchst komplexer Spektren der Lanthanide und Aktinide durchgeführt. Einen Schwerpunkt bildete die Bestimmung bisher nicht oder mit unbefriedigender Genauigkeit bekannter erster Ionisationspotentiale für diese Elemente.rnHierzu wurden drei unterschiedliche experimentelle Methoden eingesetzt. Die Bestimmung des Ionisationspotentiales aus Rydbergserien wurde an den Beispielen Eisen, Mangan und Kobalt mit gemessenen Werten von IPFe = 63737, 6 ± 0, 2stat ± 0, 1syst cm−1, IPMn = 59959, 6 ± 0, 4 cm−1 beziehungsweise IPCo = 63564, 77 ± 0, 12 cm−1 zunächst erfolgreich erprobt. Die bestehenden Literaturwerte konnten in diesen Fällen bestätigt werden und bei Eisen und Kobalt die Genauigkeit etwa um einen Faktor drei bzw. acht verbessert werden. Im Falle der Lanthaniden und Aktiniden jedoch ist die Komplexität der Spektren derart hoch, dass Rydbergserien in einer Vielzahl weiterer Zustände beliebiger Konfiguration nicht oder kaum identifiziert werden können.rnUm dennoch das Ionisationspotential bestimmen zu können, wurde die verzögerte, gepulste Feldionisation wie auch das Verfahren der Isolated Core Excitation am Beispiel des Dysprosiums erprobt. Aus den so identifizierten Rydbergserien konnten Werte von IPFeld = 47899 ± 3 cm−1 beziehungsweise IPICE = 47900, 4 ± 1, 4 cm−1 bestimmt werden. Als komplementärer Ansatz, der auf ein möglichst reichhaltiges Spektrum in der Nähe des Ionisationspotentiales angewiesen ist, wurde zusätzlich die Sattelpunktsmethode erfolgreich eingesetzt. Das Ionisationspotential des Dysprosium wurde damit zu IPDy = 47901, 8±0, 3 cm−1 bestimmt, wobei am Samarium, dessen Ionisationspotential aus der Literatur mit höchster Genauigkeit bekannt ist, bestätigt werden konnte, dassrnauftretende systematische Fehler kleiner als 1 cm−1 sind. Das bisher sehr ungenau bekannte Ionisationspotential des Praseodyms wurde schließlich zu IPPr = 44120, 0 ± 0, 6 cm−1 gemessen. Hiermit wird der bisherige Literaturwert bei einer Verbesserung der Genauigkeit um zwei Größenordnungen um etwa 50 cm−1 nach oben korrigiert. Aus der Systematik der Ionisationspotentiale der Lanthaniden konnte schließlich das Ionisationspotential des radioaktiven Promethiums mit IPPm = 44985 ± 140 cm−1 vorhergesagt werden. Abschließend wurde die Laserresonanzionisation des Elements Protactinium demonstriertrnund das Ionisationspotential erstmals experimentell bestimmt. Ein Wert vonrn49000±110 cm−1 konnte aus dem charakteristischen Verhalten verschiedener Anregungsschemata gefolgert werden. Dieser Wert liegt etwa 1500 cm−1 höher als der bisherige Literaturwert, theoretische Vorhersagen weichen ebenfalls stark ab. Beide Abweichungen können über eine Betrachtung der Systematik der Ionisationspotentiale in der Aktinidenreihe hervorragend verstanden werden.
Resumo:
In dieser Arbeit wird eine kohärente, kontinuierliche Strahlungsquelle im vakuum-ultravioletten (VUV) Spektrum vorgestellt. Sie basiert auf einem Vierwellenmischprozess in Quecksilberdampf mit Fundamentalstrahlen bei 253,7 nm, 407,9 nm und 545,5 nm Wellenlänge. Diese fundamentalen Strahlen werden durch frequenzverdoppelte bzw. frequenzvervierfachte Festkörperlasersysteme bereit gestellt. Durch das Ausnutzen der 6^1S-7^1S Zweiphotonenresonanz und zusätzlich der 6^1S-6^3P Einphotonenresonanz kann der Vierwellenmischprozess deutlich effizienter betrieben werden als zuvor. Eine nahe Einphotonenresonanz verringert die optimale Phasenanpassungstemperatur des Vierwellenmischprozesses, wodurch Druck- und Stoßverbreiterungen des Quecksilbers verkleinert und damit der nichtlineare Prozess effizienter wird. So können Leistungen bis zu 0,3 nW bei 121,56 nm, dem 1S-2P Lyman-alpha Übergang von Wasserstoff, erzeugt werden. Diese Lyman-alpha Quelle soll für die zukünftige Laserkühlung von Antiwasserstoff genutzt werden. rnrnNeben der Generierung von Strahlung bei Lyman-alpha kann, durch Veränderung der dritten Fundamentalwellenlänge, auch Strahlung in der Nähe zu einer Einphotonresonanz im VUV bei dem 6^1S-12^1P Übergang in Quecksilber durch Vierwellenmischen erzeugt werden. Durch diese weitere Einphotonresonanz kann die nichtlineare Suszeptibilität, verantwortlich für das Vierwellenmischen, stark vergrößert werden, ohne Einfluss auf die Phasenanpassung zu haben. Damit lässt sich der Mischprozess um drei Größenordnungen effizienter gestalten und Leistungen von 6 µW im VUV konnten realisiert werden. Dies entspricht einer Leistungsteigerung um einen Faktor 30 im Vergleich zu früheren Quellen. rnrnDarüberhinaus konnte die Zweiphotonenresonanz in Quecksilber ausführlich untersucht werden. Man erhält bei kleinen Rabifrequenzen der Fundamentalstrahlen eine geschwindigkeitsselektive Doppelresonanz, die den gleichen Ursprung wie Dunkelresonanzen in Lambda-Systemen hat. Bei hohen Rabifrequenzen kann die Anregung in das Zweiphotonenniveau so stark werden, dass auf dem 7^1S-6^1P Übergang ein Laserprozess initiiert wird. Dieser Prozess wurde hier zum ersten Mal mit kontinuierlichen Fundamentallasern nachgewiesen. Es wird gezeigt, dass der zusätzliche Laserprozess das Vierwellenmischen nicht beeinträchtigt.
Resumo:
Spinpolarisationsmessungen an freien Elektronen sind seit ihrer ersten Verwirklichung durch Mott anspruchsvoll geblieben. Die relevante Größe eines Spinpolarimeters ist seine Gütefunktion, FoM = S^2*I/I_0, mit der Asymmetriefunktion S und dem Verhältnis aus Streu- und Primärintensität I/I_0. Alle bisherigen Geräte basieren auf einer einkanaligen Streuung (Spin-Bahn- oder Austauschwechselwirkung), die durch FoM = 10^(-4) charakterisiert ist. Moderne Halbkugelanalysatoren ermöglichen hingegen eine effiziente Vielkanaldetektion der spinintegralen Intensität mit mehr als 10^4 simultan erfassten Datenpunkten. Im Vergleich zwischen spinaufgelöster und spinintegraler Elektronenspektroskopie findet man somit einen Effizienzunterschied von 8 Größenordnungen.rnDie vorliegende Arbeit beschäftigt sich mit der Entwicklung und Untersuchung eines neuartigen Verfahrens zur Effizienzsteigerung in der spinaufgelösten Elektronenspektroskopie unter Ausnutzung von Vielkanaldetektion. Der Spindetektor wurde in eine µ-metallgeschirmte UHV-Kammer integriert und hinter einem konventionellen Halbkugelanalysator angebracht. Durch elektronenoptische Simulationen wurde die Geometrie des elektrostatischen Linsensystems festgelegt. Das Grundkonzept basiert auf der k(senkrecht)-erhaltenden elastischen Streuung des (0,0)-Spekularstrahls an einem W(100)- Streukristall unter einem Einfallswinkel von 45°. Es konnte gezeigt werden, dass etwarn960 Datenpunkte (15 Energie- und 64 Winkelpunkte) in einem Energiebereich vonrnetwa 3 eV simultan auf einen Delayline-Detektor abgebildet werden können. Dies führt zu einer zweidimensionalen Gütefunktion von FoM_2D = 1,7. Verglichen mit konventionellen Spindetektoren ist der neuartige Ansatz somit durch einen Effizienzgewinn von 4 Größenordnungen gekennzeichnet.rnDurch Messungen einer Fe/MgO(100) und O p(1x1)/Fe(100)-Probe konnte die Funktionstüchtigkeit des neuen Spinpolarimeters nachgewiesen werden, indem die aus der Literatur bekannten typischen UPS-Ergebnisse mit stark verkürzter Messzeit reproduziert wurden. Durch die hohe Effizienz ist es möglich, besonders reaktive Oberflächen in kurzer Zeit zu vermessen. Dieser Vorteil wurde bereits für eine erste grundlagenorientierte Anwendung genutzt: Als Test für die Gültigkeit von Bandstrukturrechnungen für die Heusler-Verbindung Co_2MnGa, wobei eine gute Übereinstimmung zwischen Theorie und Experiment gefunden wurde.rnMit dem Vielkanal-Spinfilter wurde die Grundlage zu einem um Größenordnungen verbesserten Messverfahren der Elektronenspin-Polarisation geschaffen und damit der Zugang zu Experimenten eröffnet, die mit den bisherigen einkanaligen Detektoren nicht möglich sind.rn
Resumo:
Der erste Teil dieser Arbeit befaßt sich mit der Adsorption von H2O2 auf nicht-wachsendem Eis. Die Experimente wurden in einem zylindrischen Strömungsreaktor mit massenspektrometrischer Detektion (Elektronenstoß und chemische Ionisation) ausgeführt. Die Daten einer zuvor bereits am Max Planck-Institut für Chemie (Mainz) von Dr. N. Pouvesle ausgeführten Laborstudie zur Adsorption von H2O2 auf Eis bei 203 bis 233 K wurden im Rahmen der vorliegenden Arbeit durch Coadsorptionsexperimente mit Ameisensäure und Verwendung unterschiedlicher Ionisationsmodi validiert. Zusätzlich wurde eine Korrelation der Langmuir-Konstanten und der Kondensationsenthalpie für H2O2 und andere Moleküle durchgeführt, welche die Ergebnisse der MPI-Studie ebenfalls stützt. Die Ergebnisse belegen, daß die Aufnahme von H2O2 in Eiswolken um bis zu 3 Größenordnungen höher ist als bisher angenommen. Anhand dieser Erkenntnisse wurde die atmosphärische Relevanz der Adsorption von H2O2 auf Eis in der oberen Troposphäre neu bewertet. Der zweite Teil der Arbeit widmet sich der Aufnahme verschiedener organischer Verbindungen (Ethanol, 1-Butanol, Ameisensäure, Trifluoressigsäure) und HCl auf Eis während dieses wächst. Der hierfür erstmals in Betrieb genommene Eiswachstumsreaktor wurde zunächst durch Messung der Adsorptionsisotherme von Ethanol und Butanol und Berechnung der Adsorptionsenthalpien aus experimentellen Daten evaluiert. Im Anschluß wurden die Ergebnisse der Wachstumsexperimente der oben aufgeführten Verbindungen vorgestellt, wobei jedoch nur Trifluoressigsäure und HCl eine erhöhte Aufnahme zeigen. Der Aufnahmekoeffizient g_trapp von HCl wurde bei Temperaturen zwischen 194,3 und 228 K und HCl-Gasphasenkonzentrationen von 6,4x10^9 bis 2,2x10^11 cm^-3 gemessen und war unter den untersuchten Bedingungen proportional zu Eiswachstumsgeschwindigkeit x und antikorreliert zum Bedeckungsgrad theta und der Eistemperatur T. Der vom wachsenden Eis aufgenommene Fluß von HCl-Molekülen war positiv mit x und negativ mit T korreliert, während theta keinen Einfluß hatte. Anhand der erzielten Resultate wurde eine Parametrisierung für g_trapp entwickelt, mit der die Aufnahme künftig in Abhängigkeit von x, T und [HCl]_gas leicht berechnet werden kann, beispielsweise in globalen Modellsimulation der troposphärischen Chemie. Abschließend wurden die Ergebnisse mit einem von Kärcher et al. (2009) entwickelten semiempirischen Modell verglichen und für die offenen Parameter des Modells wurden aus den experimentellen Daten ebenfalls Parametrisierungen entwickelt.