521 resultados para Physik
Resumo:
In dieser Arbeit wurde die Elektronenemission von Nanopartikeln auf Oberflächen mittels spektroskopischen Photoelektronenmikroskopie untersucht. Speziell wurden metallische Nanocluster untersucht, als selbstorganisierte Ensembles auf Silizium oder Glassubstraten, sowie ferner ein Metall-Chalcogenid (MoS2) Nanoröhren-Prototyp auf Silizium. Der Hauptteil der Untersuchungen war auf die Wechselwirkung von fs-Laserstrahlung mit den Nanopartikeln konzentriert. Die Energie der Lichtquanten war kleiner als die Austrittsarbeit der untersuchten Proben, so dass Ein-Photonen-Photoemission ausgeschlossen werden konnte. Unsere Untersuchungen zeigten, dass ausgehend von einem kontinuierlichen Metallfilm bis hin zu Clusterfilmen ein anderer Emissionsmechanismus konkurrierend zur Multiphotonen-Photoemission auftritt und für kleine Cluster zu dominieren beginnt. Die Natur dieses neuen Mechanismus` wurde durch verschiedenartige Experimente untersucht. Der Übergang von einem kontinuierlichen zu einem Nanopartikelfilm ist begleitet von einer Zunahme des Emissionsstroms von mehr als eine Größenordnung. Die Photoemissions-Intensität wächst mit abnehmender zeitlicher Breite des Laserpulses, aber diese Abhängigkeit wird weniger steil mit sinkender Partikelgröße. Die experimentellen Resultate wurden durch verschiedene Elektronenemissions-Mechanismen erklärt, z.B. Multiphotonen-Photoemission (nPPE), thermionische Emission und thermisch unterstützte nPPE sowie optische Feldemission. Der erste Mechanismus überwiegt für kontinuierliche Filme und Partikel mit Größen oberhalb von mehreren zehn Nanometern, der zweite und dritte für Filme von Nanopartikeln von einer Größe von wenigen Nanometern. Die mikrospektroskopischen Messungen bestätigten den 2PPE-Emissionsmechanismus von dünnen Silberfilmen bei „blauer“ Laseranregung (hν=375-425nm). Das Einsetzen des Ferminiveaus ist relativ scharf und verschiebt sich um 2hν, wenn die Quantenenergie erhöht wird, wogegen es bei „roter“ Laseranregung (hν=750-850nm) deutlich verbreitert ist. Es zeigte sich, dass mit zunehmender Laserleistung die Ausbeute von niederenergetischen Elektronen schwächer zunimmt als die Ausbeute von höherenergetischen Elektronen nahe der Fermikante in einem Spektrum. Das ist ein klarer Hinweis auf eine Koexistenz verschiedener Emissionsmechanismen in einem Spektrum. Um die Größenabhängigkeit des Emissionsverhaltens theoretisch zu verstehen, wurde ein statistischer Zugang zur Lichtabsorption kleiner Metallpartikel abgeleitet und diskutiert. Die Elektronenemissionseigenschaften bei Laseranregung wurden in zusätzlichen Untersuchungen mit einer anderen Anregungsart verglichen, der Passage eines Tunnelstroms durch einen Metall-Clusterfilm nahe der Perkolationsschwelle. Die elektrischen und Emissionseigenschaften von stromtragenden Silberclusterfilmen, welche in einer schmalen Lücke (5-25 µm Breite) zwischen Silberkontakten auf einem Isolator hergestellt wurden, wurden zum ersten Mal mit einem Emissions-Elektronenmikroskop (EEM) untersucht. Die Elektronenemission beginnt im nicht-Ohmschen Bereich der Leitungsstrom-Spannungskurve des Clusterfilms. Wir untersuchten das Verhalten eines einzigen Emissionszentrums im EEM. Es zeigte sich, dass die Emissionszentren in einem stromleitenden Silberclusterfilm Punktquellen für Elektronen sind, welche hohe Emissions-Stromdichten (mehr als 100 A/cm2) tragen können. Die Breite der Energieverteilung der Elektronen von einem einzelnen Emissionszentrum wurde auf etwa 0.5-0.6 eV abgeschätzt. Als Emissionsmechanismus wird die thermionische Emission von dem „steady-state“ heißen Elektronengas in stromdurchflossenen metallischen Partikeln vorgeschlagen. Größenselektierte, einzelne auf Si-Substraten deponierte MoS2-Nanoröhren wurden mit einer Flugzeit-basierten Zweiphotonen-Photoemissions-Spektromikroskopie untersucht. Die Nanoröhren-Spektren wiesen bei fs-Laser Anregung eine erstaunlich hohe Emissionsintensität auf, deutlich höher als die SiOx Substratoberfläche. Dagegen waren die Röhren unsichtbar bei VUV-Anregung bei hν=21.2 eV. Eine ab-initio-Rechnung für einen MoS2-Slab erklärt die hohe Intensität durch eine hohe Dichte freier intermediärer Zustände beim Zweiphotonen-Übergang bei hν=3.1 eV.
Resumo:
Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.
Resumo:
Atmosphärische Neutrinos erlauben es Prinzipien der Relativitätstheorie, wie die Lorentz-Invarianz und das schwache Äquivalenzprinzip, zu überprüfen. Kleine Abweichungen von diesen Prinzipien können in einigen Theorien zu messbaren Neutrinooszillationen führen. In dieser Arbeit wird in den aufgezeichneten Neutrinoereignissen des AMANDA-Detektors nach solchen alternativen Oszillationseffekten gesucht. Das Neutrinoteleskop AMANDA befindet sich am geographischen Südpol und ist in einer Tiefe zwischen 1500 m und 2000 m im antarktischen Eispanzer eingebettet. AMANDA weist Myonneutrinos über das Tscherenkow-Licht neutrinoinduzierter Myonen nach, woraus die Richtung der Bahn des ursprünglichen Neutrinos rekonstruiert werden kann. Aus den AMANDA-Daten der Jahre 2000 bis 2003 wurden aus circa sieben Milliarden aufgezeichneten Ereignissen, die sich hauptsächlich aus dem Untergrund aus atmosphärischen Myonen zusammensetzen, 3401 Ereignisse neutrinoinduzierter Myonen selektiert. Dieser Datensatz wurde auf alternative Oszillationseffekte untersucht. Es wurden keine Hinweise auf solche Effekte gefunden. Für maximale Mischungswinkel konnte die untere Grenze für Oszillationsparameter, welche die Lorentz-Invarianz oder das Äquivalenzprinzip verletzen, auf DeltaBeta (2PhiDeltaGamma) < 5,15*10e-27 festgelegt werden.
Resumo:
Die vorliegende Arbeit befasst sich mit der Entwicklung und dem Aufbau eines Experiments zur hochpräzisen Bestimmung des g-Faktors gebundener Elektronen in hochgeladenen Ionen. Der g-Faktor eines Teilchens ist eine dimensionslose Konstante, die die Stärke der Wechselwirkung mit einem magnetischen Feld beschreibt. Im Falle eines an ein hochgeladenes Ion gebundenen Elektrons, dient es als einer der genausten Tests der Quantenelektrodynamik gebundener Zustande (BS-QED). Die Messung wird in einem dreifach Penning-Fallen System durchgeführt und basiert auf dem kontinuierlichen Stern-Gerlach-Effekt. Der erste Teil dieser Arbeit gibt den aktuellen Wissensstand über magnetische Momente wieder. Der hier gewählte experimentelle Aufbau wird begründet. Anschließend werden die experimentellen Anforderungen und die verwendeten Messtechniken erläutert. Das Ladungsbrüten der Ionen - einer der wichtigsten Aufgaben dieser Arbeit - ist dargestellt. Seine Realisierung basiert auf einer Feld-Emissions-Spitzen-Anordnung, die die Messung des Wirkungsquerschnitts für Elektronenstoßionisation ermöglicht. Der letzte Teil der Arbeit widmet sich der Entwicklung und dem Aufbau des Penning-Fallen Systems, sowie der Implementierung des Nachweisprozesses. Gegenwärtig ist der Aufbau zur Erzeugung hochgeladener Ionen und der dazugehörigen Messung des g-Faktors abgeschlossen, einschließlich des Steuerprogramms für die erste Datennahme. Die Ionenerzeugung und das Ladungsbrüten werden die nächsten Schritte sein.
Resumo:
Die grundlegenden Prinzipien und Möglichkeiten der Oberflächencharakterisierung mittels ToF-SIMS (Flugzeit-Sekundärionen Massenspektrometrie) werden an ausgewählten Beispielen aus einem aktuell laufenden und vom BMBF geförderten Verbundforschungsprojekt (Fkz: 03N8022A) zum Thema Nanofunktionalisierung von Grenzflächen vorgestellt. Ein Schwerpunkt innerhalb des Projekts stellen die nichtgeschlossenen Schichtsysteme dar, die entweder über Domänenstrukturen oder einer definierten Einzelfunktionalisierung neuartige funktionelle Oberflächen bereitstellen. Mithilfe der sehr oberflächensensitiven ToF-SIMS Methode sowie der Möglichkeit einer graphischen Darstellung lateraler Molekülionenverteilungen auf funktionalisierten Oberflächen können Informationen über Struktur und Belegungsdichte der Funktionsschicht gewonnen werden. Die Kombination des ToF-SIMS Experimentes und eines multivariaten Algorithmus (partial least squares, PLS) liefert eine interessante Möglichkeit zur quantitativen und simultanen Bestimmung von Oberflächeneigenschaften (Element- und molekulare Konzentrationen sowie Kontaktwinkelwerte). Da das ToF-SIMS Spektrum einer plasmafunktionalisierten Oberfläche im Allgemeinen eine Vielzahl unterschiedlicher Fragmentsignale enthält, lässt eine einfache eindimensionale Korrelation (z.B. CF3 - Fragmentintensität ßà CF3-Konzentration) den größten Teil der im Spektrum prinzipiell enthaltenen Information unberücksichtigt. Aufgrund der großen Anzahl von atomaren und molekularen Signalen, die repräsentativ für die chemische Struktur der analysierten Oberflächen sind, ist es sinnvoll, diese Fülle von Informationen zur Quantifizierung der Oberflächeneigenschaften (Elementkonzentrationen, Kontaktwinkel etc.) zu verwenden. Zusätzlich ermöglicht diese Methode eine quantitative Bestimmung der Oberflächeneigenschaften auf nur µm-großen Bereichen. Das ist vorteilhaft für Untersuchungen chemisch strukturierter Oberflächen, da die Größe der Strukturierung für viele Anwendungen in einem Bereich von mehreren µm liegt. Anhand eines Beispieles aus dem biologisch-medizinischen Fachgebiet, soll der erfolgreiche Einsatz multivariater Modelle aufgezeigt werden. In diesem Experiment wurden menschlichen Bindegewebs- (Fibroblasten) und Pankreaszellen auf plasmafunktionalisiserten Oberflächen kultiviert, um die Beeinflussung der Funktionalisierung auf das Zellwachstum zu untersuchen. Die plasmabehandelten Oberflächen wurden durch die Verwendung von TEM-Gittern mit µm-großen Öffnungen chemisch strukturiert und das Wachstumsverhalten der Zellen beobachtet. Jedem dieser µm-großen Bereiche können mithilfe der multivariaten Modelle quantitative Größen zugeordnet werden (Konzentrationen und Kontaktwinkelwerte), die zur Interpretation des Wachstumsverhaltens der Zellen beitragen.
Resumo:
In this thesis I concentrate on the angular correlations in top quark decays and their next--to--leading order (NLO) QCD corrections. I also discuss the leading--order (LO) angular correlations in unpolarized and polarized hyperon decays. In the first part of the thesis I calculate the angular correlation between the top quark spin and the momentum of decay products in the rest frame decay of a polarized top quark into a charged Higgs boson and a bottom quark in Two-Higgs-Doublet-Models: $t(uparrow)rightarrow b+H^{+}$. The decay rate in this process is split into an angular independent part (unpolarized) and an angular dependent part (polar correlation). I provide closed form formulae for the ${mathcal O}(alpha_{s})$ radiative corrections to the unpolarized and the polar correlation functions for $m_{b}neq 0$ and $m_{b}=0$. The results for the unpolarized rate agree with the existing results in the literature. The results for the polarized correlations are new. I found that, for certain values of $tanbeta$, the ${mathcal O}(alpha_s)$ radiative corrections to the unpolarized, polarized rates, and the asymmetry parameter can become quite large. In the second part I concentrate on the semileptonic rest frame decay of a polarized top quark into a bottom quark and a lepton pair: $t(uparrow) to X_b + ell^+ + nu_ell$. I analyze the angular correlations between the top quark spin and the momenta of the decay products in two different helicity coordinate systems: system 1a with the $z$--axis along the charged lepton momentum, and system 3a with the $z$--axis along the neutrino momentum. The decay rate then splits into an angular independent part (unpolarized), a polar angle dependent part (polar correlation) and an azimuthal angle dependent part (azimuthal correlation). I present closed form expressions for the ${mathcal O}(alpha_{s})$ radiative corrections to the unpolarized part and the polar and azimuthal correlations in system 1a and 3a for $m_{b}neq 0$ and $m_{b}=0$. For the unpolarized part and the polar correlation I agree with existing results. My results for the azimuthal correlations are new. In system 1a I found that the azimuthal correlation vanishes in the leading order as a consequence of the $(V-A)$ nature of the Standard Model current. The ${mathcal O}(alpha_{s})$ radiative corrections to the azimuthal correlation in system 1a are very small (around 0.24% relative to the unpolarized LO rate). In system 3a the azimuthal correlation does not vanish at LO. The ${mathcal O}(alpha_{s})$ radiative corrections decreases the LO azimuthal asymmetry by around 1%. In the last part I turn to the angular distribution in semileptonic hyperon decays. Using the helicity method I derive complete formulas for the leading order joint angular decay distributions occurring in semileptonic hyperon decays including lepton mass and polarization effects. Compared to the traditional covariant calculation the helicity method allows one to organize the calculation of the angular decay distributions in a very compact and efficient way. This is demonstrated by the specific example of the polarized hyperon decay $Xi^0(uparrow) to Sigma^+ + l^- + bar{nu}_l$ ,($l^-=e^-, mu^-$) followed by the nonleptonic decay $Sigma^+ to p + pi^0$, which is described by a five--fold angular decay distribution.
Resumo:
Seit Frühjahr 2004 wird der Crystal Ball-Detektor am Photonenstrahl des Mainzer Mikrotrons für Koinzidenzexperimente zur Untersuchung der Struktur der Nukleonen genutzt. Aufbau und Inbetriebnahme des Kalorimeters, insbesondere der neuen Detektorelektronik, bilden einen Schwerpunkt dieser Arbeit. Komponenten wurden neu konstruiert oder auf ihre Verwendbarkeit geprüft und nögenfalls modifiziert. Nach erfolgreichem Abschluss der Aufbauphase wurden Experimente zur Produktion von $pi$- und $eta$-Mesonen am Proton mit mehr als 2500 Stunden Strahlbetrieb durchgeführt. Den zweiten Schwerpunkt der Dissertation bildet die erstmalige Messung der Helizitätsasymmetrie I$^odot$ in der Photoproduktion zweier neutraler Pionen. Zum Verstädnis des Anregungsspektrums der Nukleonen müssen Experimente mit polarisierten Photonen und/oder polarisierten Targets durchgeführt werden. Da Modelle trotz unterschiedlicher Annahmen unpolarisiert gemessene Größen vergleichbar gut reproduzieren, ist die Bestimmung der auf Modellunterschiede empfindlichen Polarisationsobservablen unumgäglich. Im Gegensatz zur Einpionproduktion tritt in der Zweipionproduktion eine Einfachpolarisationsobservable auf, die mit zirkular polarisierten Photonen am unpolarisierten Proton gemessen werden kann. Diese wurde in der Reaktion $gamma$ p $rightarrow$ p $pi^0$ $pi^0$ und in $gamma$ p $rightarrow$ p $pi^+$ $pi^-$ energie- und winkelabhägig bestimmt. Die Ergebnisse weichen stark von den Modellvorhersagen ab.
Resumo:
Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.
Resumo:
Ein neu entwickeltes globales Atmosphärenchemie- und Zirkulationsmodell (ECHAM5/MESSy1) wurde verwendet um die Chemie und den Transport von Ozonvorläufersubstanzen zu untersuchen, mit dem Schwerpunkt auf Nichtmethankohlenwasserstoffen. Zu diesem Zweck wurde das Modell durch den Vergleich der Ergebnisse mit Messungen verschiedenen Ursprungs umfangreich evaluiert. Die Analyse zeigt, daß das Modell die Verteilung von Ozon realistisch vorhersagt, und zwar sowohl die Menge als auch den Jahresgang. An der Tropopause gibt das Modell den Austausch zwischen Stratosphäre und Troposphäre ohne vorgeschriebene Flüsse oder Konzentrationen richtig wieder. Das Modell simuliert die Ozonvorläufersubstanzen mit verschiedener Qualität im Vergleich zu den Messungen. Obwohl die Alkane vom Modell gut wiedergeben werden, ergibt sich einige Abweichungen für die Alkene. Von den oxidierten Substanzen wird Formaldehyd (HCHO) richtig wiedergegeben, während die Korrelationen zwischen Beobachtungen und Modellergebnissen für Methanol (CH3OH) und Aceton (CH3COCH3) weitaus schlechter ausfallen. Um die Qualität des Modells im Bezug auf oxidierte Substanzen zu verbessern, wurden einige Sensitivitätsstudien durchgeführt. Diese Substanzen werden durch Emissionen/Deposition von/in den Ozean beeinflußt, und die Kenntnis über den Gasaustausch mit dem Ozean ist mit großen Unsicherheiten behaftet. Um die Ergebnisse des Modells ECHAM5/MESSy1 zu verbessern wurde das neue Submodell AIRSEA entwickelt und in die MESSy-Struktur integriert. Dieses Submodell berücksichtigt den Gasaustausch zwischen Ozean und Atmosphäre einschließlich der oxidierten Substanzen. AIRSEA, welches Informationen über die Flüssigphasenkonzentration des Gases im Oberflächenwasser des Ozeans benötigt wurde ausgiebig getestet. Die Anwendung des neuen Submodells verbessert geringfügig die Modellergebnisse für Aceton und Methanol, obwohl die Verwendung einer vorgeschriebenen Flüssigphasenkonzentration stark den Erfolg der Methode einschränkt, da Meßergebnisse nicht in ausreichendem Maße zu Verfügung stehen. Diese Arbeit vermittelt neue Einsichten über organische Substanzen. Sie stellt die Wichtigkeit der Kopplung zwischen Ozean und Atmosphäre für die Budgets vieler Gase heraus.
Resumo:
Das Time-of-Flight Aerosol Mass Spectrometer (ToF-AMS) der Firma Aerodyne ist eine Weiterentwicklung des Aerodyne Aerosolmassenspektrometers (Q-AMS). Dieses ist gut charakterisiert und kommt weltweit zum Einsatz. Beide Instrumente nutzen eine aerodynamische Linse, aerodynamische Partikelgrößenbestimmung, thermische Verdampfung und Elektronenstoß-Ionisation. Im Gegensatz zum Q-AMS, wo ein Quadrupolmassenspektrometer zur Analyse der Ionen verwendet wird, kommt beim ToF-AMS ein Flugzeit-Massenspektrometer zum Einsatz. In der vorliegenden Arbeit wird anhand von Laborexperimenten und Feldmesskampagnen gezeigt, dass das ToF-AMS zur quantitativen Messung der chemischen Zusammensetzung von Aerosolpartikeln mit hoher Zeit- und Größenauflösung geeignet ist. Zusätzlich wird ein vollständiges Schema zur ToF-AMS Datenanalyse vorgestellt, dass entwickelt wurde, um quantitative und sinnvolle Ergebnisse aus den aufgenommenen Rohdaten, sowohl von Messkampagnen als auch von Laborexperimenten, zu erhalten. Dieses Schema basiert auf den Charakterisierungsexperimenten, die im Rahmen dieser Arbeit durchgeführt wurden. Es beinhaltet Korrekturen, die angebracht werden müssen, und Kalibrationen, die durchgeführt werden müssen, um zuverlässige Ergebnisse aus den Rohdaten zu extrahieren. Beträchtliche Arbeit wurde außerdem in die Entwicklung eines zuverlässigen und benutzerfreundlichen Datenanalyseprogramms investiert. Dieses Programm kann zur automatischen und systematischen ToF-AMS Datenanalyse und –korrektur genutzt werden.
Resumo:
The subject of this thesis is in the area of Applied Mathematics known as Inverse Problems. Inverse problems are those where a set of measured data is analysed in order to get as much information as possible on a model which is assumed to represent a system in the real world. We study two inverse problems in the fields of classical and quantum physics: QCD condensates from tau-decay data and the inverse conductivity problem. Despite a concentrated effort by physicists extending over many years, an understanding of QCD from first principles continues to be elusive. Fortunately, data continues to appear which provide a rather direct probe of the inner workings of the strong interactions. We use a functional method which allows us to extract within rather general assumptions phenomenological parameters of QCD (the condensates) from a comparison of the time-like experimental data with asymptotic space-like results from theory. The price to be paid for the generality of assumptions is relatively large errors in the values of the extracted parameters. Although we do not claim that our method is superior to other approaches, we hope that our results lend additional confidence to the numerical results obtained with the help of methods based on QCD sum rules. EIT is a technology developed to image the electrical conductivity distribution of a conductive medium. The technique works by performing simultaneous measurements of direct or alternating electric currents and voltages on the boundary of an object. These are the data used by an image reconstruction algorithm to determine the electrical conductivity distribution within the object. In this thesis, two approaches of EIT image reconstruction are proposed. The first is based on reformulating the inverse problem in terms of integral equations. This method uses only a single set of measurements for the reconstruction. The second approach is an algorithm based on linearisation which uses more then one set of measurements. A promising result is that one can qualitatively reconstruct the conductivity inside the cross-section of a human chest. Even though the human volunteer is neither two-dimensional nor circular, such reconstructions can be useful in medical applications: monitoring for lung problems such as accumulating fluid or a collapsed lung and noninvasive monitoring of heart function and blood flow.
Resumo:
The present thesis is concerned with certain aspects of differential and pseudodifferential operators on infinite dimensional spaces. We aim to generalize classical operator theoretical concepts of pseudodifferential operators on finite dimensional spaces to the infinite dimensional case. At first we summarize some facts about the canonical Gaussian measures on infinite dimensional Hilbert space riggings. Considering the naturally unitary group actions in $L^2(H_-,gamma)$ given by weighted shifts and multiplication with $e^{iSkp{t}{cdot}_0}$ we obtain an unitary equivalence $F$ between them. In this sense $F$ can be considered as an abstract Fourier transform. We show that $F$ coincides with the Fourier-Wiener transform. Using the Fourier-Wiener transform we define pseudodifferential operators in Weyl- and Kohn-Nirenberg form on our Hilbert space rigging. In the case of this Gaussian measure $gamma$ we discuss several possible Laplacians, at first the Ornstein-Uhlenbeck operator and then pseudo-differential operators with negative definite symbol. In the second case, these operators are generators of $L^2_gamma$-sub-Markovian semi-groups and $L^2_gamma$-Dirichlet-forms. In 1992 Gramsch, Ueberberg and Wagner described a construction of generalized Hörmander classes by commutator methods. Following this concept and the classical finite dimensional description of $Psi_{ro,delta}^0$ ($0leqdeltaleqroleq 1$, $delta< 1$) in the $C^*$-algebra $L(L^2)$ by Beals and Cordes we construct in both cases generalized Hörmander classes, which are $Psi^*$-algebras. These classes act on a scale of Sobolev spaces, generated by our Laplacian. In the case of the Ornstein-Uhlenbeck operator, we prove that a large class of continuous pseudodifferential operators considered by Albeverio and Dalecky in 1998 is contained in our generalized Hörmander class. Furthermore, in the case of a Laplacian with negative definite symbol, we develop a symbolic calculus for our operators. We show some Fredholm-criteria for them and prove that these Fredholm-operators are hypoelliptic. Moreover, in the finite dimensional case, using the Gaussian-measure instead of the Lebesgue-measure the index of these Fredholm operators is still given by Fedosov's formula. Considering an infinite dimensional Heisenberg group rigging we discuss the connection of some representations of the Heisenberg group to pseudo-differential operators on infinite dimensional spaces. We use this connections to calculate the spectrum of pseudodifferential operators and to construct generalized Hörmander classes given by smooth elements which are spectrally invariant in $L^2(H_-,gamma)$. Finally, given a topological space $X$ with Borel measure $mu$, a locally compact group $G$ and a representation $B$ of $G$ in the group of all homeomorphisms of $X$, we construct a Borel measure $mu_s$ on $X$ which is invariant under $B(G)$.
Resumo:
Der niederländische Astronom Willem de Sitter ist bekannt für seine inzwischen berühmte Kontroverse mit Einstein von 1916 bis 1918, worin die relativistische Kosmologie begründet wurde. In diesem Kontext wird sein Name mit dem von ihm geschaffenen kosmologischen Modell verbunden, welches er als Gegenbeispiel zu Einsteins physikalischer Intuition schuf. Obwohl diese Debatte schon in wissenschaftshistorischen Arbeiten analysiert wurde, hat de Sitters Rolle in der Rezeption und dem Verbreiten der allgemeinen Relativitätstheorie bislang in der Hauptrichtung der Einstein-Studien noch nicht die ihr zustehende Aufmerksamkeit erhalten. Die vorliegende Untersuchung zielt darauf ab, seine zentrale Wichtigkeit für die Forschung zur ART innerhalb der Leidener Community aufzuzeigen. Wie Eddington war de Sitter einer der wenigen Astronomen, die sowohl hinreichende Ausbildung als auch nötige Interessen vereinten, um zum einen die spezielle und zum anderen die allgemeine Relativitätstheorie zu verfolgen. Er befasste sich zunächst 1911 mit dem Relativitätsprinzip (Einsteins erstes Postulat der SRT); zwei Jahre später fand er einen Nachweis für die Konstanz der Lichtgeschwindigkeit (Einsteins zweites Postulat). De Sitters Interesse an Gravitationstheorien reicht sogar noch weiter zurück und lässt sich bis 1908 zurückverfolgen. Überdies verfolgte er Einsteins Versuche, einen feldtheoretischen Ansatz für die Gravitation zu konstruieren, inklusive der kontroversen Einstein-Grossmann Theorie von 1913. Diese Umstände zeigen deutlich, dass de Sitters bekannteres Werk zur ART eine Konsequenz seiner vorausgegangenen Forschungen war und kein Resultat einer plötzlichen, erst 1916 einsetzenden Beschäftigung mit Einsteins Relativitätstheorie.
Resumo:
Since the discovery of the nuclear magnetic resonance (NMR) phenomenon, countless NMR techniques have been developed that are today indispensable tools in physics, chemistry, biology, and medicine. As one of the main obstacles in NMR is its notorious lack of sensitivity, different hyperpolarization (HP) methods have been established to increase signals up to several orders of magnitude. In this work, different aspects of magnetic resonance, using HP noble gases, are studied, hereby combining different disciplines of research. The first part examines new fundamental effects in NMR of HP gases, in theory and experiment. The spin echo phenomenon, which provides the basis of numerous modern experiments, is studied in detail in the gas phase. The changes of the echo signal in terms of amplitude, shape, and position, due to the fast translational motion, are described by an extension of the existing theory and computer simulations. With this knowledge as a prerequisite, the detection of intermolecular double-quantum coherences was accomplished for the first time in the gas phase. The second part of this thesis focuses on the development of a practical method to enhance the dissolution process of HP 129Xe, without loss of polarization or shortening of T1. Two different setups for application in NMR spectroscopy and magnetic resonance imaging (MRI) are presented. The continuous operation allows biological and multidimensional spectroscopy in solutions. Also, first in vitro MRI images with dissolved HP 129Xe as contrast agent were obtained at a clinical scanner.
Resumo:
Der erste experimentelle Test der GDH-Summenregel für das Proton wurde 1998 am MAMI-Beschleuniger der Universität Mainz durchgeführt. Ferner wurde ein Pilot-Experiment mit einem polarisierten Deuteron-Target vorgenommen. Dieselbe Kollaboration führte 2003 ein auf das Deuteron ausgerichtetes Experiment durch mit der Absicht, die GDH-Summenregel für das Neutron zu untersuchen. Der in beiden Experimenten verwendete Aufbau erlaubt nicht nur die Messung des totalen Wirkungsquerschnitts, sondern auch gleichzeitig einzelne Teilreaktionen zu studieren. In dieser Arbeit werden die Daten des Deuteron-Pilot-Experiments von 1998 analysiert. Desweiteren wird eine Studie der Helizitätsabhängigkeit der differenziellen Wirkungsquerschnitte für drei Pion-Photoproduktionskanäle des Deuterons in der oberen Hälfte der Delta-Resonanz präsentiert. Diese Ergebnisse werden mit einem theoretischen Modell verglichen. Dabei wurde eine hinreichend gute Übereinstimmung für die unpolarisierten Reaktionen gefunden, während für die polarisierten Kanäle kleinere Diskrepanzen beobachtet wurden. Der Targetpolarisationsgrad ist einer der relevanten Parameter, der für eine absolute Normalisierung der Wirkungsquerschnitte notwendig ist. Die Analyse dieses Parameters für die 2003er Daten wird in der vorliegenden Arbeit vorgestellt. Zur Zeit ist in Mainz ein Frozen-Spin-Target im Bau. Es wird als Target für polarisierte Protonen oder polarisierte Deuteronen für zukünftige Experimente mit dem Crystal Ball zur Verfügung stehen. Die Vorbereitungen der verschiedenen Subsysteme dieses Aufbaus stellten einen wichtigen Teil dieser Arbeit dar. Die fundamentalen Grundlagen der Methode und deren technische Umsetzung, sowie der momentane Status der Aufbauarbeiten am Target werden im Detail präsentiert.