406 resultados para Novellenroman, Mathematik, Mythos, Relativitätstheorie, fraktale Geometrie
Resumo:
Im Verzweigungsprozess mit Immigration werden Schätzer für die erwartete Nachkommenzahl m eines Individuums und die erwartete Immigration λ pro Generation konstruiert. Sie sind nur aufgrund der beobachteten Populationsgröße einer jeden Generation konsistent, ohne Vorkenntnis darüber, ob der Prozess subkritisch (m<1), kritisch (m=1) oder superkritisch (m>1) ist. Im superkritischen Fall ist der Schätzer für λ jedoch nicht konsistent. Dies ist aber keine Einschränkung, denn es wird gezeigt, dass in diesem Fall kein konsistenter Schätzer für λ existiert. Des Weiteren werden Konvergenzgeschwindigkeit der Schätzer und asymptotische Verteilungen der Schätzfehler untersucht. Dabei werden die Fälle (m<1), (m>1) und (m=1) unterschieden, was gänzlich verschiedene Vorgehensweisen erfordert (Ergodizität, Martingalmethoden, Diffusionsapproximationen). Diese hier vorliegende Diplomarbeit orientiert sich an den Ideen und Ergebnissen von Wei und Winnicki (1989/90).
Resumo:
The quark condensate is a fundamental free parameter of Chiral Perturbation Theory ($chi PT$), since it determines the relative size of the mass and momentum terms in the power expansion. In order to confirm or contradict the assumption of a large quark condensate, on which $chi PT$ is based, experimental tests are needed. In particular, the $S$-wave $pipi$ scattering lengths $a_0^0$ and $a_0^2$ can be predicted precisely within $chi PT$ as a function of this parameter and can be measured very cleanly in the decay $K^{pm} to pi^{+} pi^{-} e^{pm} stackrel{mbox{tiny(---)}}{nu_e}$ ($K_{e4}$). About one third of the data collected in 2003 and 2004 by the NA48/2 experiment were analysed and 342,859 $K_{e4}$ candidates were selected. The background contamination in the sample could be reduced down to 0.3% and it could be estimated directly from the data, by selecting events with the same signature as $K_{e4}$, but requiring for the electron the opposite charge with respect to the kaon, the so-called ``wrong sign'' events. This is a clean background sample, since the kaon decay with $Delta S=-Delta Q$, that would be the only source of signal, can only take place through two weak decays and is therefore strongly suppressed. The Cabibbo-Maksymowicz variables, used to describe the kinematics of the decay, were computed under the assumption of a fixed kaon momentum of 60 GeV/$c$ along the $z$ axis, so that the neutrino momentum could be obtained without ambiguity. The measurement of the form factors and of the $pipi$ scattering length $a_0^0$ was performed in a single step by comparing the five-dimensional distributions of data and MC in the kinematic variables. The MC distributions were corrected in order to properly take into account the trigger and selection efficiencies of the data and the background contamination. The following parameter values were obtained from a binned maximum likelihood fit, where $a_0^2$ was expressed as a function of $a_0^0$ according to the prediction of chiral perturbation theory: f'_s/f_s = 0.133+- 0.013(stat)+- 0.026(syst) f''_s/f_s = -0.041+- 0.013(stat)+- 0.020(syst) f_e/f_s = 0.221+- 0.051(stat)+- 0.105(syst) f'_e/f_s = -0.459+- 0.170(stat)+- 0.316(syst) tilde{f_p}/f_s = -0.112+- 0.013(stat)+- 0.023(syst) g_p/f_s = 0.892+- 0.012(stat)+- 0.025(syst) g'_p/f_s = 0.114+- 0.015(stat)+- 0.022(syst) h_p/f_s = -0.380+- 0.028(stat)+- 0.050(syst) a_0^0 = 0.246+- 0.009(stat)+- 0.012(syst)}+- 0.002(theor), where the statistical uncertainty only includes the effect of the data statistics and the theoretical uncertainty is due to the width of the allowed band for $a_0^2$.
Resumo:
Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.
Resumo:
Die diffusionsgewichtete Magnetresonanztomographie (MRT) mit dem hyperpolarisierten Edelgas-Isotop 3He ist ein neues Verfahren zur Untersuchung von Erkrankungen der Atem-wege und der Lunge. Die Diffusionsbewegung der 3He-Atome in den Luftwegen der Lunge wird durch deren Wände begrenzt, wobei diese Einschränkung sowohl von den Dimensionen der Atemwege als auch von den Messparametern abhängt. Man misst daher einen scheinbaren Diffusionskoeffizienten (Apparent Diffusion Coefficient, ADC) der kleiner ist als der Diffusionskoeffizient bei freier Diffusion. Der ADC gestattet somit eine qualitative Abschät-zung der Größe der Luftwege und deren krankhafte Veränderung, ohne eine direkte Abbil-dung der Luftwege selbst. Eine dreidimensionale Abbildung der räumlichen Verteilung von Lungenschädigungen wird dadurch möglich. Ziel der vorliegenden Arbeit war es, ein tieferes physikalisch fundiertes Verständnis der 3He-Diffusionsmessung zu ermöglichen und die Methode der diffusionsgewichteten 3He-MRT hin zur Erfassung des kompletten 3He-Diffusionstensors weiterzuentwickeln. Dazu wurde systematisch im Rahmen von Phantom- und tierexperimentellen Studien sowie Patientenmes-sungen untersucht, inwieweit unterschiedliche Einflussfaktoren das Ergebnis der ADC-Messung beeinflussen. So konnte beispielsweise nachgewiesen werden, dass residuale Luftströmungen am Ende der Einatmung keinen Einfluss auf den ADC-Wert haben. Durch Simulationsrechnungen konnte gezeigt werden, in welchem Maße sich die durch den Anregungspuls hervorgerufene Abnah-me der Polarisation des 3He-Gases auf den gemessenen ADC-Wert auswirkt. In einer Studie an lungengesunden Probanden und Patienten konnte die Wiederholbarkeit der ADC-Messung untersucht werden, aber auch der Einfluss von Gravitationseffekten. Diese Ergebnisse ermöglichen genauere Angaben über systematische und statistische Messfehler, sowie über Grenzwerte zwischen normalem und krankhaft verändertem Lungengewebe. Im Rahmen dieser Arbeit wurde die bestehende diffusionsgewichtete Bildgebung methodisch zur Erfassung des kompletten Diffusionstensors von 3He in der Lunge weiterentwickelt. Dies war wichtig, da entlang der Luftwege weitestgehend freie Diffusion vorherrscht, während senkrecht zu den Luftwegen die Diffusion eingeschränkt ist. Mit Hilfe von Simulationsrech-nungen wurde der kritische Einfluss von Rauschen in den MRT-Bildern auf die Qualität der Messergebnisse untersucht. Diese neue Methodik wurde zunächst an einem Phantom beste-hend aus einem Bündel aus Glaskapillaren, deren innerer Durchmesser mit dem des mensch-lichen Azinus übereinstimmt, validiert. Es ergab sich eine gute Übereinstimmung zwischen theoretischen Berechnungen und experimentellen Ergebnissen. In ersten Messungen am Menschen konnten so unterschiedliche Anisotropiewerte zwischen lungengesunden Proban-den und Patienten gefunden werden. Es zeigte sich eine Tendenz zu isotroper Diffusion bei Patienten mit einem Lungenemphysem. Zusammenfassend tragen die Ergebnisse der vorliegenden Arbeit zu einem besseren Ver-ständnis der ADC-Messmethode bei und helfen zukünftige Studien aufgrund des tieferen Verständnisses der die 3He Messung beeinflussenden Faktoren besser zu planen.
Resumo:
Die zuverlässige Berechnung von quantitativen Parametern der Lungenventilation ist für ein Verständnis des Verhaltens der Lunge und insbesondere für die Diagnostik von Lungenerkrankungen von großer Bedeutung. Nur durch quantitative Parameter sind verlässliche und reproduzierbare diagnostische Aussagen über den Gesundheitszustand der Lunge möglich. Im Rahmen dieser Arbeit wurden neue quantitative Verfahren zur Erfassung der Lungenventilation basierend auf der dynamischen Computer- (CT) und Magnetresonanztomographie (MRT) entwickelt. Im ersten Teil dieser Arbeit wurde die Frage untersucht, ob das Aufblähen der Lunge in gesunden Schweinelungen und Lungen mit Akutem Lungenversagen (ARDS) durch einzelne, diskrete Zeitkonstanten beschrieben werden kann, oder ob kontinuierliche Verteilungen von Zeitkonstanten die Realität besser beschreiben. Hierzu wurden Serien dynamischer CT-Aufnahmen während definierter Beatmungsmanöver (Drucksprünge) aufgenommen und anschließend aus den Messdaten mittels inverser Laplace-Transformation die zugehörigen Verteilungen der Zeitkonstanten berechnet. Um die Qualität der Ergebnisse zu analysieren, wurde der Algorithmus im Rahmen von Simulationsrechnungen systematisch untersucht und anschließend in-vivo an gesunden und ARDS-Schweinelungen eingesetzt. Während in den gesunden Lungen mono- und biexponentielle Verteilungen bestimmt wurden, waren in den ARDS-Lungen Verteilungen um zwei dominante Zeitkonstanten notwendig, um die gemessenen Daten auf der Basis des verwendeten Modells verlässlich zu beschreiben. Es wurden sowohl diskrete als auch kontinuierliche Verteilungen gefunden. Die CT liefert Informationen über das solide Lungengewebe, während die MRT von hyperpolarisiertem 3He in der Lage ist, direkt das eingeatmete Gas abzubilden. Im zweiten Teil der Arbeit wurde zeitlich hochaufgelöst das Einströmen eines 3He-Bolus in die Lunge erfasst. Über eine Entfaltungsanalyse wurde anschließend das Einströmverhalten unter Idealbedingungen (unendlich kurzer 3He-Bolus), also die Gewebeantwortfunktion, berechnet und so eine Messtechnik-unabhängige Erfassung des Einströmens von 3He in die Lunge ermöglicht. Zentrale Fragestellung war hier, wie schnell das Gas in die Lunge einströmt. Im Rahmen von Simulationsrechnungen wurde das Verhalten eines Entfaltungsalgorithmus (basierend auf B-Spline Repräsentationen) systematisch analysiert. Zusätzlich wurde ein iteratives Entfaltungsverfahren eingesetzt. Aus zeitlich hochaufgelösten Messungen (7ms) an einer gesunden und einer ARDS-Schweinelunge konnte erstmals nachgewiesen werden, dass das Einströmen in-vivo in weniger als 0,1s geschieht. Die Ergebnisse zeigen Zeitkonstanten im Bereich von 4ms–50ms, wobei zwischen der gesunden Lungen und der ARDS-Lunge deutliche Unterschiede beobachtet wurden. Zusammenfassend ermöglichen daher die in dieser Arbeit vorgestellten Algorithmen eine objektivere Bestimmung quantitativer Parameter der Lungenventilation. Dies ist für die eindeutige Beschreibung ventilatorischer Vorgänge in der Lunge und somit für die Lungendiagnostik unerlässlich. Damit stehen quantitative Methoden für die Lungenfunktionsdiagnostik zur Verfügung, deren diagnostische Relevanz im Rahmen wissenschaftlicher und klinischer Studien untersucht werden kann.
Resumo:
Germaniumdioxid (GeO2) ist ein Glasbildner, der wie das homologe SiO2 ein ungeordnetes tetraedrisches Netzwerk ausbildet. In dieser Arbeit werden mit Hilfe von Molekulardynamik-Computersimulationen die Struktur und Dynamik von GeO2 in Abhängigkeit von der Temperatur untersucht. Dazu werden sowohl Simulationen mit einem klassischen Paarpotentialmodell von Oeffner und Elliott als auch ab initio-Simulationen gemäß der Car-Parrinello-Molekulardynamik (CPMD), bei der elektronische Freiheitsgrade mittels Dichtefunktionaltheorie beschrieben werden, durchgeführt. In der klassischen Simulation werden dazu ein Temperaturen zwischen 6100 K und 2530 K betrachtet. Darüberhinaus ermöglichen Abkühlläufe auf T=300 K das Studium der Struktur des Glases. Zum Vergleich werden CPMD-Simulationen für kleinere Systeme mit 60 bzw. 120 Teilchen bei den Temperaturen 3760 K und 3000 K durchgeführt. In den klassischen Simulationen kann die im Experiment bis 1700 K nachgewiesene, im Vergleich zu SiO2 starke, Temperaturabhängigkeit der Dichte auch bei höheren Temperaturen beobachtet werden. Gute Übereinstimmungen der Simulationen mit experimentellen Daten zeigen sich bei der Untersuchung verschiedener struktureller Größen, wie z.B. Paarkorrelationsfunktionen, Winkelverteilungen, Koordinationszahlen und Strukturfaktoren. Es können leichte strukturelle Abweichungen der CPMD-Simulationen von den klassischen Simulationen aufgezeigt werden: 1. Die Paarabstände in CPMD sind durchweg etwas kleiner. 2. Es zeigt sich, daß die Bindungen in den ab initio-Simulationen weicher sind, was sich auch in einer etwas stärkeren Temperaturabhängigkeit der strukturellen Größen im Vergleich zu den klassischen Simulationen niederschlägt. 3. Für CPMD kann ein vermehrtes Auftreten von Dreierringstrukturen gezeigt werden. 4. In der CPMD werden temperaturabhängige Defektstrukturen in Form von Sauerstoffpaaren beobachtet, die vor allem bei 3760 K, kaum jedoch bei 3000 K auftreten. Alle strukturellen Unterschiede zwischen klassischer und CPMD-Simulation sind eindeutig nicht auf Finite-Size-Effekte aufgrund der kleinen Systemgrößen in den CPMD-Simulationen zurückzuführen, d.h. sie sind tatsächlich methodisch bedingt. Bei der Dynamik von GeO2 wird in den klassischen Simulationen ebenfalls eine gute Übereinstimmung mit experimentellen Daten beobachtet, was ein Vergleich der Diffusionskonstanten mit Viskositätsmessungen bei hohen Temperaturen belegt. Die Diffusionskonstanten zeigen teilweise ein verschiedenes Verhalten zum homologen SiO2. Sie folgen in GeO2 bei Temperaturen unter 3000 K einem Arrheniusgesetz mit einer deutlich niedrigeren Aktivierungsenergie. Darüberhinaus werden die Möglichkeiten der Parametrisierung eines neuen klassischen Paarpotentials mittels der Kräfte entlang der CPMD-Trajektorien untersucht. Es zeigt sich, daß derartige Parametrisierungen sehr stark von den gewählten Startparametern abhängen. Ferner führen sämtliche an die Schmelze parametrisierten Potentiale zu zu hohen Dichten im Vergleich zum Experiment. Zum einen liegt dies sehr wahrscheinlich daran,daß für das System GeO2 Kraftdaten allein nicht ausreichen, um grundlegende strukturelle Größen, wie z.B. Paarkorrelationen und Winkelverteilungen, der CPMD-Simulationen gut reproduzieren zu können. Zum anderen ist wohl die Beschreibung mittels Paarpotentialen nicht ausreichend und es ist erforderlich, Merkörperwechselwirkungen in Betracht zu ziehen.
Resumo:
My work concerns two different systems of equations used in the mathematical modeling of semiconductors and plasmas: the Euler-Poisson system and the quantum drift-diffusion system. The first is given by the Euler equations for the conservation of mass and momentum, with a Poisson equation for the electrostatic potential. The second one takes into account the physical effects due to the smallness of the devices (quantum effects). It is a simple extension of the classical drift-diffusion model which consists of two continuity equations for the charge densities, with a Poisson equation for the electrostatic potential. Using an asymptotic expansion method, we study (in the steady-state case for a potential flow) the limit to zero of the three physical parameters which arise in the Euler-Poisson system: the electron mass, the relaxation time and the Debye length. For each limit, we prove the existence and uniqueness of profiles to the asymptotic expansion and some error estimates. For a vanishing electron mass or a vanishing relaxation time, this method gives us a new approach in the convergence of the Euler-Poisson system to the incompressible Euler equations. For a vanishing Debye length (also called quasineutral limit), we obtain a new approach in the existence of solutions when boundary layers can appear (i.e. when no compatibility condition is assumed). Moreover, using an iterative method, and a finite volume scheme or a penalized mixed finite volume scheme, we numerically show the smallness condition on the electron mass needed in the existence of solutions to the system, condition which has already been shown in the literature. In the quantum drift-diffusion model for the transient bipolar case in one-space dimension, we show, by using a time discretization and energy estimates, the existence of solutions (for a general doping profile). We also prove rigorously the quasineutral limit (for a vanishing doping profile). Finally, using a new time discretization and an algorithmic construction of entropies, we prove some regularity properties for the solutions of the equation obtained in the quasineutral limit (for a vanishing pressure). This new regularity permits us to prove the positivity of solutions to this equation for at least times large enough.
Resumo:
Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.
Resumo:
Die vorliegende Dissertation beschreibt die Realisation des neuartigen Konzepts der Laserionenquellenfalle für die on-line Produktion exotischer Nuklide und für den Nachweis von Spurenisotopen in Proben mit starken Isobarenkontaminationen. Ziel dieser Entwicklung ist eine wesentliche Steigerung der Isobarenselektivität einer herkömmlichen Laserionenquelle, sowie die Erzeugung zeitlich kontrollierter Ionenpulse mit hervorragender Strahlqualität. Es konnte die prizipielle Funktionsfähigkeit des Systems in Kombination mit einem Titan:Saphir-Lasersystem für die Elemente Gallium, Calcium und Nickel demonstriert und Ionenpulse mit einer minimalen Pulslänge von 1 µs erzeugt werden. Nach ersten Abschätzungen ist die Effizienz des Systems etwa einen Faktor 2500 geringer als die einer herkömmlichen Laserionenquelle. Der zweite Teil der Arbeit beschäftigt sich mit dem spurenanalytischen Nachweis von 99-Tc, mit dem Ziel, das Verhalten von 99-Tc in der Umgebung eines möglichen Endlagers für nukleare Abfälle studieren zu können. Hier wurden erste Studien mit dem kurzlebigen Isomer 99m-Tc zur Wechselwirkung von Tc(VII) mit Huminsäure und Kaolinit durchgeführt. Für den Einsatz der Laserionenquellenfalle in der Ultraspurenanalyse, wurde ein effizientes Anregungsschema für Titan:Saphir-Laser entwickelt und 99-Tc in einer herkömmlichen Ionenquelle nachgewiesen. Der letzte Teil der Arbeit beschreibt Machbarkeitsstudien zum Aufbau einer Laserionenquelle auf Basis eines Titan:Sahphir-Lasersystems, die parallel zu oben genannten Entwicklungen am Oak Ridge National Laboratory durchgeführt wurden. Im Rahmen dieser Messungen wurden Anregungsschemata für die resonante Anregung und Ionisation von Kupfer und Palladium für Titan:Saphir-Laser getestet. Dabei konnte zum ersten Mal frequenzvervierfachtes Laserlicht in einer Laserionenquelle eingesetzt werden. Am ORNL wurden Studien zur Zeitstruktur von Laserionenpulsen, sowie Emittanzmessungen von Laser- und Oberflächenionenstrahlen durchgeführt werden.
Resumo:
Die vorliegende Arbeit untersucht die Möglichkeiten und Limitierungen der MR-Lungenbildgebung mit hyperpolarisiertem 3-He bei gegenüber üblichen Magnetfeldstärken reduzierten magnetischen Führungsfeldern. Dabei werden insbesondere auch die funktionellen Bildgebungstechniken (dynamische Bildgebung, diffusionsgewichtete Bildgebung und Bestimmung des Sauerstoff-Partialdrucks) berücksichtigt. Experimentell geschieht dies durch in vivo Messungen an einem 0.1 T-Ganzkörpertomographen. Zur systematischen Untersuchung der MR-Bildgebung unter dem Einfluss diffundierender Kontrastmittel werden analytische Simulationen, Monte-Carlo-Studien und Referenzexperimente durchgeführt. Hier wird das Augenmerk besonders auf den Einfluss von Diffusions- und Suszeptibilitätsartefakten auf die morphologische und die diffusionsgewichtete Bildgebung gerichtet. Die Entwicklung und der Vergleich verschiedener Konzepte zur Erzeugung von MR-Führungsmagnetfeldern führt zur Erfindung eines neuartigen Prinzips zur weiträumigen Homogenisierung von Magnetfeldern. Die Umsetzung dieses Prinzips erfolgt in Form eines besonders kompakten Transportbehälters für kernspinpolarisierte Edelgase. Die Arbeit beinhaltet eine ausführliche Diskussion der MR-Bildgebungstechnik in Theorie und Praxis, um die Anknüpfungspunkte an die angestellten Untersuchungen herauszuarbeiten. Teile dieser Studien wurden von der Europäischen Raumfahrtorganisation ESA finanziert (Contract No.15308/01/NL/PA).
Resumo:
The weathering of Fe-bearing minerals under extraterrestrial conditions was investigated by Mössbauer (MB) spectroscopy to gain insights into the role of water on the planet Mars. The NASA Mars Exploration Rovers Spirit and Opportunity each carry a miniaturized Mössbauer spectrometer MIMOS II for the in situ investigation of Martian soils and rocks as part of their payload. The MER flight instruments had to be modified in order to work over the Martian diurnal temperature range (180 K – 290 K) and within the unique electronic environment of the rovers. The modification required special calibration procedures. The integration time necessary to obtain a good quality Mössbauer spectrum with the MIMOS II flight instruments was reduced by 30 % through the design of a new collimator. The in situ investigation of rocks along the rover Spirit's traverse in Gusev crater revealed weakly altered olivine basalt on the plains and pervasively altered basalt in the Columbia Hills. Correlation plots of primary Fe-bearing minerals identified by MB spectroscopy such as olivine versus secondary Fe-bearing phases such as nanophase Fe oxides showed that olivine is the mineral which is primarily involved in weathering reactions. This argues for a reduced availability of water. Identification of the Fe-oxyhydroxide goethite in the Columbia Hills is unequivocal evidence for aqueous weathering processes in the Columbia Hills. Experiments in which mineral powders were exposed to components of the Martian atmosphere showed that interaction with the atmosphere alone, in the absence of liquid water, is sufficient to oxidize Martian surface materials. The fine-grained dust suspended in the Martian atmosphere may have been altered solely by gas-solid reactions. Fresh and altered specimens of Martian meteorites were investigated with MIMOS II. The study of Martian meteorites in the lab helped to identify in Bounce Rock the first rock on Mars which is similar in composition to basaltic shergottites, a subgroup of the Martian meteorites. The field of astrobiology includes the study of the origin, evolution and distribution of life in the universe. Water is a prerequisite for life. The MER Mössbauer spectrometers identified aqueous minerals such as jarosite and goethite. The identification of jarosite was crucial to evaluate the habitability of Opportunity's landing site at Meridiani Planum during the formation of the sedimentary outcrop rocks, because jarosite puts strong constrains on pH levels. The identification of olivine in rocks and soils on the Gusev crater plains provide evidence for the sparsity of water under current conditions on Mars. Ratios of Fe2+/Fe3+ were obtained with Mössbauer spectroscopy from basaltic glass samples which were exposed at a deep sea hydrothermal vent. The ratios were used as a measure of potential energy for use by a microbial community. Samples from Mars analogue field sites on Earth exhibiting morphological biosignatures were also investigated.
Resumo:
Das Standardmodell (SM) der Teilchenphysik beschreibt sehr präzise die fundamentalen Bausteine und deren Wechselwirkungen (WW). Trotz des Erfolges gibt es noch offene Fragen, die vom SM nicht beantwortet werden können. Ein noch noch nicht abgeschlossener Test besteht aus der Messung der Stärke der schwachen Kopplung zwischen Quarks. Neutrale B- bzw. $bar{B}$-Mesonen können sich innerhalb ihrer Lebensdauer über einen Prozeß der schwachen WW in ihr Antiteilchen transformieren. Durch die Messung der Bs-Oszillation kann die Kopplung Vtd zwischen den Quarksorten Top (t) und Down (d) bestimmt werden. Alle bis Ende 2005 durchgeführten Experimente lieferten lediglich eine untere Grenze für die Oszillationsfrequenz von ms>14,4ps-1. Die vorliegenden Arbeit beschreibt die Messung der Bs-Oszillationsfrequenz ms mit dem semileptonischen Kanal BsD(-)+. Die verwendeten Daten stammen aus Proton-Antiproton-Kollisionen, die im Zeitraum von April 2002 bis März 2006 mit dem DØ-Detektor am Tevatron-Beschleuniger des Fermi National Accelerator Laboratory bei einer Schwerpunktsenergie von $sqrt{s}$=1,96TeV aufgezeichnet wurden. Die verwendeten Datensätze entsprechen einer integrierten Luminosität von 1,3fb-1 (620 millionen Ereignisse). Für diese Oszillationsmessung wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion sowie des Zerfalls bestimmt und die Zerfallszeit wurde gemessen. Nach der Rekonstruktion und Selektion der Signalereignisse legt die Ladung des Myons den Quarkinhalt des Bs-Mesons zur Zeit des Zerfalls fest. Zusätzlich wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion markiert. b-Quarks werden in $pbar{p}$-Kollisionen paarweise produziert. Die Zerfallsprodukte des zweiten b-Hadrons legen den Quarkinhalt des Bs-Mesons zur Zeit der Produktion fest. Bei einer Sensitivität von msenss=14,5ps-1 wurde eine untere Grenze für die Oszillationsfrequenz ms>15,5ps-1 bestimmt. Die Maximum-Likelihood-Methode lieferte eine Oszillationsfrequenz ms>(20+2,5-3,0(stat+syst)0,8(syst,k))ps-1 bei einem Vertrauensniveau von 90%. Der nicht nachgewiesene Neutrinoimpuls führt zu dem systematischen Fehler (sys,k). Dieses Resultat ergibt zusammen mit der entsprechenden Oszillation des Bd-Mesons eine signifikante Messung der Kopplung Vtd, in Übereinstimmung mit weiteren Experimenten über die schwachen Quarkkopplungen.
Resumo:
In dieser Arbeit wurde die Elektronenemission von Nanopartikeln auf Oberflächen mittels spektroskopischen Photoelektronenmikroskopie untersucht. Speziell wurden metallische Nanocluster untersucht, als selbstorganisierte Ensembles auf Silizium oder Glassubstraten, sowie ferner ein Metall-Chalcogenid (MoS2) Nanoröhren-Prototyp auf Silizium. Der Hauptteil der Untersuchungen war auf die Wechselwirkung von fs-Laserstrahlung mit den Nanopartikeln konzentriert. Die Energie der Lichtquanten war kleiner als die Austrittsarbeit der untersuchten Proben, so dass Ein-Photonen-Photoemission ausgeschlossen werden konnte. Unsere Untersuchungen zeigten, dass ausgehend von einem kontinuierlichen Metallfilm bis hin zu Clusterfilmen ein anderer Emissionsmechanismus konkurrierend zur Multiphotonen-Photoemission auftritt und für kleine Cluster zu dominieren beginnt. Die Natur dieses neuen Mechanismus` wurde durch verschiedenartige Experimente untersucht. Der Übergang von einem kontinuierlichen zu einem Nanopartikelfilm ist begleitet von einer Zunahme des Emissionsstroms von mehr als eine Größenordnung. Die Photoemissions-Intensität wächst mit abnehmender zeitlicher Breite des Laserpulses, aber diese Abhängigkeit wird weniger steil mit sinkender Partikelgröße. Die experimentellen Resultate wurden durch verschiedene Elektronenemissions-Mechanismen erklärt, z.B. Multiphotonen-Photoemission (nPPE), thermionische Emission und thermisch unterstützte nPPE sowie optische Feldemission. Der erste Mechanismus überwiegt für kontinuierliche Filme und Partikel mit Größen oberhalb von mehreren zehn Nanometern, der zweite und dritte für Filme von Nanopartikeln von einer Größe von wenigen Nanometern. Die mikrospektroskopischen Messungen bestätigten den 2PPE-Emissionsmechanismus von dünnen Silberfilmen bei „blauer“ Laseranregung (hν=375-425nm). Das Einsetzen des Ferminiveaus ist relativ scharf und verschiebt sich um 2hν, wenn die Quantenenergie erhöht wird, wogegen es bei „roter“ Laseranregung (hν=750-850nm) deutlich verbreitert ist. Es zeigte sich, dass mit zunehmender Laserleistung die Ausbeute von niederenergetischen Elektronen schwächer zunimmt als die Ausbeute von höherenergetischen Elektronen nahe der Fermikante in einem Spektrum. Das ist ein klarer Hinweis auf eine Koexistenz verschiedener Emissionsmechanismen in einem Spektrum. Um die Größenabhängigkeit des Emissionsverhaltens theoretisch zu verstehen, wurde ein statistischer Zugang zur Lichtabsorption kleiner Metallpartikel abgeleitet und diskutiert. Die Elektronenemissionseigenschaften bei Laseranregung wurden in zusätzlichen Untersuchungen mit einer anderen Anregungsart verglichen, der Passage eines Tunnelstroms durch einen Metall-Clusterfilm nahe der Perkolationsschwelle. Die elektrischen und Emissionseigenschaften von stromtragenden Silberclusterfilmen, welche in einer schmalen Lücke (5-25 µm Breite) zwischen Silberkontakten auf einem Isolator hergestellt wurden, wurden zum ersten Mal mit einem Emissions-Elektronenmikroskop (EEM) untersucht. Die Elektronenemission beginnt im nicht-Ohmschen Bereich der Leitungsstrom-Spannungskurve des Clusterfilms. Wir untersuchten das Verhalten eines einzigen Emissionszentrums im EEM. Es zeigte sich, dass die Emissionszentren in einem stromleitenden Silberclusterfilm Punktquellen für Elektronen sind, welche hohe Emissions-Stromdichten (mehr als 100 A/cm2) tragen können. Die Breite der Energieverteilung der Elektronen von einem einzelnen Emissionszentrum wurde auf etwa 0.5-0.6 eV abgeschätzt. Als Emissionsmechanismus wird die thermionische Emission von dem „steady-state“ heißen Elektronengas in stromdurchflossenen metallischen Partikeln vorgeschlagen. Größenselektierte, einzelne auf Si-Substraten deponierte MoS2-Nanoröhren wurden mit einer Flugzeit-basierten Zweiphotonen-Photoemissions-Spektromikroskopie untersucht. Die Nanoröhren-Spektren wiesen bei fs-Laser Anregung eine erstaunlich hohe Emissionsintensität auf, deutlich höher als die SiOx Substratoberfläche. Dagegen waren die Röhren unsichtbar bei VUV-Anregung bei hν=21.2 eV. Eine ab-initio-Rechnung für einen MoS2-Slab erklärt die hohe Intensität durch eine hohe Dichte freier intermediärer Zustände beim Zweiphotonen-Übergang bei hν=3.1 eV.
Resumo:
Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.
Resumo:
Die vorliegende Arbeit befasst sich mit der Entwicklung und dem Aufbau eines Experiments zur hochpräzisen Bestimmung des g-Faktors gebundener Elektronen in hochgeladenen Ionen. Der g-Faktor eines Teilchens ist eine dimensionslose Konstante, die die Stärke der Wechselwirkung mit einem magnetischen Feld beschreibt. Im Falle eines an ein hochgeladenes Ion gebundenen Elektrons, dient es als einer der genausten Tests der Quantenelektrodynamik gebundener Zustande (BS-QED). Die Messung wird in einem dreifach Penning-Fallen System durchgeführt und basiert auf dem kontinuierlichen Stern-Gerlach-Effekt. Der erste Teil dieser Arbeit gibt den aktuellen Wissensstand über magnetische Momente wieder. Der hier gewählte experimentelle Aufbau wird begründet. Anschließend werden die experimentellen Anforderungen und die verwendeten Messtechniken erläutert. Das Ladungsbrüten der Ionen - einer der wichtigsten Aufgaben dieser Arbeit - ist dargestellt. Seine Realisierung basiert auf einer Feld-Emissions-Spitzen-Anordnung, die die Messung des Wirkungsquerschnitts für Elektronenstoßionisation ermöglicht. Der letzte Teil der Arbeit widmet sich der Entwicklung und dem Aufbau des Penning-Fallen Systems, sowie der Implementierung des Nachweisprozesses. Gegenwärtig ist der Aufbau zur Erzeugung hochgeladener Ionen und der dazugehörigen Messung des g-Faktors abgeschlossen, einschließlich des Steuerprogramms für die erste Datennahme. Die Ionenerzeugung und das Ladungsbrüten werden die nächsten Schritte sein.