964 resultados para High Precision Positioning
Resumo:
In dieser Arbeit wurden wässrige Suspensionen ladungsstabilisierter kolloidaler Partikel bezüglich ihres Verhaltens unter dem Einfluss elektrischer Felder untersucht. Insbesondere wurde die elektrophoretische Mobilität µ über einen weiten Partikelkonzentrationsbereich studiert, um das individuelle Verhalten einzelner Partikel mit dem bisher nur wenig untersuchten kollektiven Verhalten von Partikelensembles (speziell von fluid oder kristallin geordneten Ensembles) zu vergleichen. Dazu wurde ein superheterodynes Dopplervelocimetrisches Lichtstreuexperiment mit integraler und lokaler Datenerfassung konzipiert, das es erlaubt, die Geschwindigkeit der Partikel in elektrischen Feldern zu studieren. Das Experiment wurde zunächst erfolgreich im Bereich nicht-ordnender und fluid geordneter Suspensionen getestet. Danach konnte mit diesem Gerät erstmals das elektrophoretische Verhalten von kristallin geordneten Suspensionen untersucht werden. Es wurde ein komplexes Fließverhalten beobachtet und ausführlich dokumentiert. Dabei wurden bisher in diesem Zusammenhang noch nicht beobachtete Effekte wie Blockfluss, Scherbandbildung, Scherschmelzen oder elastische Resonanzen gefunden. Andererseits machte dieses Verhalten die Entwicklung einer neuen Auswertungsroutine für µ im kristallinen Zustand notwendig, wozu die heterodyne Lichtstreutheorie auf den superheterodynen Fall mit Verscherung erweitert werden musste. Dies wurde zunächst für nicht geordnete Systeme durchgeführt. Diese genäherte Beschreibung genügte, um unter den gegebenen Versuchbedingungen auch das Lichtstreuverhalten gescherter kristalliner Systeme zu interpretieren. Damit konnte als weiteres wichtiges Resultat eine generelle Mobilitäts-Konzentrations-Kurve erhalten werden. Diese zeigt bei geringen Partikelkonzentrationen den bereits bekannten Anstieg und bei mittleren Konzentrationen ein Plateau. Bei hohen Konzentrationen sinkt die Mobilität wieder ab. Zur Interpretation dieses Verhaltens bzgl. Partikelladung stehen derzeit nur Theorien für nicht wechselwirkende Partikel zur Verfügung. Wendet man diese an, so findet man eine überraschend gute Übereinstimmung der elektrophoretisch bestimmten Partikelladung Z*µ mit numerisch bestimmten effektiven Partikelladungen Z*PBC.
Resumo:
The Gaia space mission is a major project for the European astronomical community. As challenging as it is, the processing and analysis of the huge data-flow incoming from Gaia is the subject of thorough study and preparatory work by the DPAC (Data Processing and Analysis Consortium), in charge of all aspects of the Gaia data reduction. This PhD Thesis was carried out in the framework of the DPAC, within the team based in Bologna. The task of the Bologna team is to define the calibration model and to build a grid of spectro-photometric standard stars (SPSS) suitable for the absolute flux calibration of the Gaia G-band photometry and the BP/RP spectrophotometry. Such a flux calibration can be performed by repeatedly observing each SPSS during the life-time of the Gaia mission and by comparing the observed Gaia spectra to the spectra obtained by our ground-based observations. Due to both the different observing sites involved and the huge amount of frames expected (≃100000), it is essential to maintain the maximum homogeneity in data quality, acquisition and treatment, and a particular care has to be used to test the capabilities of each telescope/instrument combination (through the “instrument familiarization plan”), to devise methods to keep under control, and eventually to correct for, the typical instrumental effects that can affect the high precision required for the Gaia SPSS grid (a few % with respect to Vega). I contributed to the ground-based survey of Gaia SPSS in many respects: with the observations, the instrument familiarization plan, the data reduction and analysis activities (both photometry and spectroscopy), and to the maintenance of the data archives. However, the field I was personally responsible for was photometry and in particular relative photometry for the production of short-term light curves. In this context I defined and tested a semi-automated pipeline which allows for the pre-reduction of imaging SPSS data and the production of aperture photometry catalogues ready to be used for further analysis. A series of semi-automated quality control criteria are included in the pipeline at various levels, from pre-reduction, to aperture photometry, to light curves production and analysis.
Resumo:
In this thesis we consider three different models for strongly correlated electrons, namely a multi-band Hubbard model as well as the spinless Falicov-Kimball model, both with a semi-elliptical density of states in the limit of infinite dimensions d, and the attractive Hubbard model on a square lattice in d=2.
In the first part, we study a two-band Hubbard model with unequal bandwidths and anisotropic Hund's rule coupling (J_z-model) in the limit of infinite dimensions within the dynamical mean-field theory (DMFT). Here, the DMFT impurity problem is solved with the use of quantum Monte Carlo (QMC) simulations. Our main result is that the J_z-model describes the occurrence of an orbital-selective Mott transition (OSMT), in contrast to earlier findings. We investigate the model with a high-precision DMFT algorithm, which was developed as part of this thesis and which supplements QMC with a high-frequency expansion of the self-energy.
The main advantage of this scheme is the extraordinary accuracy of the numerical solutions, which can be obtained already with moderate computational effort, so that studies of multi-orbital systems within the DMFT+QMC are strongly improved. We also found that a suitably defined
Falicov-Kimball (FK) model exhibits an OSMT, revealing the close connection of the Falicov-Kimball physics to the J_z-model in the OSM phase.
In the second part of this thesis we study the attractive Hubbard model in two spatial dimensions within second-order self-consistent perturbation theory.
This model is considered on a square lattice at finite doping and at low temperatures. Our main result is that the predictions of first-order perturbation theory (Hartree-Fock approximation) are renormalized by a factor of the order of unity even at arbitrarily weak interaction (U->0). The renormalization factor q can be evaluated as a function of the filling n for 0
Resumo:
In the present thesis, the geochemistry, petrology and geochronology of ophiolite complexes from central northern Greece were studied in detail in order to gain insights on the petrogenetic pathways and geodynamic processes that lead to their formation and evolution. The major- and trace-element content of minerals and whole rocks from all four ophiolite complexes was determined using high-precision analytical equipment. These results were then coupled with Nd and Sr isotopic measurements. In order to precisely place the evolution of these ophiolites in time, U-Pb geochronology on zircons was conducted using a SHRIMP-II. The data obtained suggest that the ophiolites studied invariably show typical characteristics of subduction-zone magmatism (e.g. negative Nb anomalies, Th enrichment). In N-MORB-normalised multielement profiles the high field-strength elements display patterns that vary from depleted to N-MORB-like. Chondrite-normalised rare-earth element (REE) profiles show flat heavy-REE patterns suggesting a shallow regime of source melting for all the ophiolites, well within the stability field of spinel lherzolite. The majority of the samples have light-REE depleted patterns. 87Sr/86Sr isotopic ratios range from 0.703184 to 0.715853 and are in cases influenced by alteration. The εNd values are positive (the majority of the mafic samples is typically 7.1-3.1) but lower than N-MORB and depleted mantle. With the exception of the Thessaloniki ophiolite that has uniform island-arc tholeiitic chemical characteristics, the rest of the ophiolites show dual chemistry consisting of rocks with minor subduction-zone characteristics that resemble chemically back-arc basin basalts (BABB) and rocks with more pronounced subduction-zone characteristics. Tectonomagmatic discrimination schemes classify the samples as island-arc tholeiites and back-arc basin basalts or N-MORB. Melting modelling carried out to evaluate source properties and degree of melting verifies the dual nature of the ophiolites. The samples that resemble back-arc basin basalts require very small degrees of melting (<10%) of fertile sources, whereas the rest of the samples require higher degrees (25-15%) of melting. As deduced from the present geochemical and petrological investigation, the ophiolites from Guevguely, Oraeokastro, Thessaloniki, and Chalkidiki represent relics of supra-subduction zone crust that formed in succeeding stages of island-arc rifting and back-arc spreading as well as in a fore arc setting. The geochronological results have provided precise determination of the timing of formation of these complexes. The age of the Guevguely ophiolite has been determined as 167±1.2 Ma, that of Thessaloniki as 169±1.4 Ma, that of Kassandra as 167±2.2 Ma and that of Sithonia as 160±1.2 Ma.
Resumo:
Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.
Resumo:
The dissertation presented here deals with high-precision Penning trap mass spectrometry on short-lived radionuclides. Owed to the ability of revealing all nucleonic interactions, mass measurements far off the line of ß-stability are expected to bring new insight to the current knowledge of nuclear properties and serve to test the predictive power of mass models and formulas. In nuclear astrophysics, atomic masses are fundamental parameters for the understanding of the synthesis of nuclei in the stellar environments. This thesis presents ten mass values of radionuclides around A = 90 interspersed in the predicted rp-process pathway. Six of them have been experimentally determined for the first time. The measurements have been carried out at the Penning-trap mass spectrometer SHIPTRAP using the destructive time-of-fligh ion-cyclotron-resonance (TOF-ICR) detection technique. Given the limited performance of the TOF-ICR detection when trying to investigate heavy/superheavy species with small production cross sections (σ< 1 μb), a new detection system is found to be necessary. Thus, the second part of this thesis deals with the commissioning of a cryogenic double-Penning trap system for the application of a highly-sensitive, narrow-band Fourier-transform ion-cyclotron-resonance (FT-ICR) detection technique. With the non-destructive FT-ICR detection method a single singly-charged trapped ion will provide the required information to determine its mass. First off-line tests of a new detector system based on a channeltron with an attached conversion dynode, of a cryogenic pumping barrier, to guarantee ultra-high vacuum conditions during mass determination, and of the detection electronics for the required single-ion sensitivity are reported.
Resumo:
Heutzutage gewähren hochpräzise Massenmessungen mit Penning-Fallen tiefe Einblicke in die fundamentalen Eigenschaften der Kernmaterie. Zu diesem Zweck wird die freie Zyklotronfrequenz eines Ions bestimmt, das in einem starken, homogenen Magnetfeld gespeichert ist. Am ISOLTRAP-Massenspektrometer an ISOLDE / CERN können die Massen von kurzlebigen, radioaktiven Nukliden mit Halbwertszeiten bis zu einigen zehn ms mit einer Unsicherheit in der Größenordnung von 10^-8 bestimmt werden. ISOLTRAP besteht aus einem Radiofrequenz-Quadrupol zum akkumulieren der von ISOLDE gelieferten Ionen, sowie zwei Penning-Fallen zum säubern und zur Massenbestimmung der Ionen. Innerhalb dieser Arbeit wurden die Massen von neutronenreichen Xenon- und Radonisotopen (138-146Xe und 223-229Rn) gemessen. Für elf davon wurde zum ersten Mal die Masse direkt bestimmt; 229Rn wurde im Zuge dieses Experimentes sogar erstmalig beobachtet und seine Halbwertszeit konnte zu ungefähr 12 s bestimmt werden. Da die Masse eines Nuklids alle Wechselwirkungen innerhalb des Kerns widerspiegelt, ist sie einzigartig für jedes Nuklid. Eine dieser Wechselwirkungen, die Wechselwirkung zwischen Protonen und Neutronen, führt zum Beispiel zu Deformationen. Das Ziel dieser Arbeit ist eine Verbindung zwischen kollektiven Effekten, wie Deformationen und Doppeldifferenzen von Bindungsenergien, sogenannten deltaVpn-Werten zu finden. Insbesondere in den hier untersuchten Regionen zeigen deltaVpn-Werte ein sehr ungewöhnliches Verhalten, das sich nicht mit einfachen Argumenten deuten lässt. Eine Erklärung könnte das Auftreten von Oktupoldeformationen in diesen Gebieten sein. Nichtsdestotrotz ist eine quantitative Beschreibung von deltaVpn-Werten, die den Effekt von solchen Deformationen berücksichtigt mit modernen Theorien noch nicht möglich.
Resumo:
“Plasmon” is a synonym for collective oscillations of the conduction electrons in a metal nanoparticle (excited by an incoming light wave), which cause strong optical responses like efficient light scattering. The scattering cross-section with respect to the light wavelength depends not only on material, size and shape of the nanoparticle, but also on the refractive index of the embedding medium. For this reason, plasmonic nanoparticles are interesting candidates for sensing applications. Here, two novel setups for rapid spectral investigations of single nanoparticles and different sensing experiments are presented.rnrnPrecisely, the novel setups are based on an optical microscope operated in darkfield modus. For the fast single particle spectroscopy (fastSPS) setup, the entrance pinhole of a coupled spectrometer is replaced by a liquid crystal device (LCD) acting as spatially addressable electronic shutter. This improvement allows the automatic and continuous investigation of several particles in parallel for the first time. The second novel setup (RotPOL) usesrna rotating wedge-shaped polarizer and encodes the full polarization information of each particle within one image, which reveals the symmetry of the particles and their plasmon modes. Both setups are used to observe nanoparticle growth in situ on a single-particle level to extract quantitative data on nanoparticle growth.rnrnUsing the fastSPS setup, I investigate the membrane coating of gold nanorods in aqueous solution and show unequivocally the subsequent detection of protein binding to the membrane. This binding process leads to a spectral shift of the particles resonance due to the higher refractive index of the protein compared to water. Hence, the nanosized addressable sensor platform allows for local analysis of protein interactions with biological membranes as a function of the lateral composition of phase separated membranes.rnrnThe sensitivity on changes in the environmental refractive index depends on the particles’ aspect ratio. On the basis of simulations and experiments, I could present the existence of an optimal aspect ratio range between 3 and 4 for gold nanorods for sensing applications. A further sensitivity increase can only be reached by chemical modifications of the gold nanorods. This can be achieved by synthesizing an additional porous gold cage around the nanorods, resulting in a plasmon sensitivity raise of up to 50 % for those “nanorattles” compared to gold nanorods with the same resonance wavelength. Another possibility isrnto coat the gold nanorods with a thin silver shell. This reduces the single particle’s resonance spectral linewidth about 30 %, which enlarges the resolution of the observable shift. rnrnThis silver coating evokes the interesting effect of reducing the ensemble plasmon linewidth by changing the relation connecting particle shape and plasmon resonance wavelength. This change, I term plasmonic focusing, leads to less variation of resonance wavelengths for the same particle size distribution, which I show experimentally and theoretically.rnrnIn a system of two coupled nanoparticles, the plasmon modes of the transversal and longitudinal axis depend on the refractive index of the environmental solution, but only the latter one is influenced by the interparticle distance. I show that monitoring both modes provides a self-calibrating system, where interparticle distance variations and changes of the environmental refractive index can be determined with high precision.
Resumo:
L’attuale rilevanza rappresentata dalla stretta relazione tra cambiamenti climatici e influenza antropogenica ha da tempo posto l’attenzione sull’effetto serra e sul surriscaldamento planetario così come sull’aumento delle concentrazioni atmosferiche dei gas climaticamente attivi, in primo luogo la CO2. Il radiocarbonio è attualmente il tracciante ambientale per eccellenza in grado di fornire mediante un approccio “top-down” un valido strumento di controllo per discriminare e quantificare il diossido di carbonio presente in atmosfera di provenienza fossile o biogenica. Ecco allora che ai settori applicativi tradizionali del 14C, quali le datazioni archeometriche, si affiancano nuovi ambiti legati da un lato al settore energetico per quanto riguarda le problematiche associate alle emissioni di impianti, ai combustibili, allo stoccaggio geologico della CO2, dall’altro al mercato in forte crescita dei cosiddetti prodotti biobased costituiti da materie prime rinnovabili. Nell’ambito del presente lavoro di tesi è stato quindi esplorato il mondo del radiocarbonio sia dal punto di vista strettamente tecnico e metodologico che dal punto di vista applicativo relativamente ai molteplici e diversificati campi d’indagine. E’ stato realizzato e validato un impianto di analisi basato sul metodo radiometrico mediante assorbimento diretto della CO2 ed analisi in scintillazione liquida apportando miglioramenti tecnologici ed accorgimenti procedurali volti a migliorare le performance del metodo in termini di semplicità, sensibilità e riproducibilità. Il metodo, pur rappresentando generalmente un buon compromesso rispetto alle metodologie tradizionalmente usate per l’analisi del 14C, risulta allo stato attuale ancora inadeguato a quei settori applicativi laddove è richiesta una precisione molto puntuale, ma competitivo per l’analisi di campioni moderni ad elevata concentrazione di 14C. La sperimentazione condotta su alcuni liquidi ionici, seppur preliminare e non conclusiva, apre infine nuove linee di ricerca sulla possibilità di utilizzare questa nuova classe di composti come mezzi per la cattura della CO2 e l’analisi del 14C in LSC.
Resumo:
This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.
Resumo:
The LHCb experiment at the LHC, by exploiting the high production cross section for $c\overline{c}$ quark pairs, offers the possibility to investigate $\mathcal{CP}$ violation in the charm sector with a very high precision.\\ In this thesis a measurement of time-integrated \(\mathcal{CP}\) violation using $D^0\rightarrow~K^+K^-$ and $D^0\rightarrow \pi^+\pi^-$ decays at LHCb is presented. The measured quantity is the difference ($\Delta$) of \(\mathcal{CP}\) asymmetry ($\mathcal{A}_{\mathcal{CP}}$) between the decay rates of $D^0$ and $\overline{D}^0$ mesons into $K^+K^–$ and $\pi^+\pi^-$ pairs.\\ The analysis is performed on 2011 data, collected at \(\sqrt{s}=7\) TeV and corresponding to an integrated luminosity of 1 fb\(^{-1}\), and 2012 data, collected at \(\sqrt{s}=8\) TeV and corresponding to an integrated luminosity of 2 fb\(^{-1}\).\\ A complete study of systematic uncertainties is beyond the aim of this thesis. However the most important systematic of the previous analysis has been studied. We find that this systematic uncertainty was due to a statistical fluctuation and then we demonstrate that it is no longer necessary to take into account.\\ By combining the 2011 and 2012 results, the final statistical precision is 0.08\%. When this analysis will be completed and published, this will be the most precise single measurement in the search for $\mathcal{CP}$ violation in the charm sector.
Resumo:
The aSPECT spectrometer has been constructed to measure, with high precision, the integral proton spectrum of the free neutron decay. From this spectrum the neutrino electron angular correlation coefficient a can be inferred. The coefficient a is involved in several Standard Model tests, like the unitarity test of the Cabibbo-Kobayashi-Maskawa quark mixing matrix. aSPECT has been designed to determine the coefficient a with an accuracy better than 3×10−4, that is, one order of magnitude better than the best current accuracy. First measurements with neutron beam with the aSPECT spectrometer were performed in the Forschungsneutronenquelle Heinz Maier-Leibnitz, in Munich. A study of the data taken in this period is presented in this thesis, demonstrating the proof of principle of the spectrometer. However, the observation of situation and time-dependent background instabilities impedes the report of a new value of the coefficient a. A thorough data analysis is carried out to identify sources of these background instabilities in order to improve the aSPECT experiment for future beam times. The investigation indicates that trapped particles are most likely the reason for the background problems. Furthermore, it has been observed that measurements containing less trapped particles provide a-values closer to the currently Particle Data Group value. Based on this findings, different measures are proposed to eliminate potential traps in the spectrometer. Indeed, with the proposed modifications realized for the following beam-times, the observed background instabilities were greatly reduced.
Resumo:
In dieser Arbeit werden der experimentelle Aufbau und erste Messungen für die Bestimmung des g-Faktors des Elektrons gebunden in wasserstoff- und lithiumähnlichen mittelschweren Ionen beschrieben. Mit dem hochpräzisenWert des g-Faktors können theoretische Berechnungen der Quantenelektrodynamik gebundener Zustände überprüft werden. Die Messungen werden in einem Dreifach-Penningfallen-System durchgeführt. Dort wurden im Rahmen dieser Arbeit auch erstmals hochgeladene Ionen bis 28Si13+ in einer hierfür entwickelten Elektronenstrahl-Ionenquelle/-falle erzeugt. Für die Bestimmung des g-Faktors werden die freie Zyklotronfrequenz und die Larmorfrequenz benötigt. Erstere wird aus den drei Eigenfrequenzen des in der Präzisionsfalle gespeicherten Ions berechnet. Um das Ion bei den Messungen nicht zu verlieren, werden die Eigenfrequenzen des Ions durch Kopplung an einen radiofrequenten Nachweisschwingkreis nicht-destruktiv nachgewiesen. Die freie Zyklotronfrequenz konnte dabei mit einer relativen Genauigkeit von wenigen 10E−9 bestimmt werden. Zur Bestimmung der Larmorfrequenz ist die genaue Kenntnis der Spinrichtung des Elektrons im Magnetfeld notwendig. Diese wird durch den kontinuierlichen Stern-Gerlach-Effekt in der sogenannten Analysefalle bestimmt. Hierzu muss eine hohe Stabilität der axialen Frequenz des Ions erreicht werden. Um dies sowie die Hochpräzisionsmessungen in der Präzisionsfalle zu erreichen, wurden in dieser Arbeit beide Fallen hinsichtlich ihrer elektrischen und magnetischen Eigenschaften charakterisiert.
Resumo:
Auf Paulfallen basierende Experimente spielen eine wichtige Rolle in verschiedenen Bereichen der Physik, z.B. der Atomphysik zum Test theoretischer Modelle und der Massenspektroskopie. Die vorliegende Arbeit widmet sich beiden Themengebieten und gliedert sich entsprechend in zwei Teilbereiche: 1) Erdalkali-Ionen sind aufgrund ihrer Energieniveaus optimale Kandidaten für Laserspektroskopie-Experimente mit Ionenfallen und bestens geeignet, um mittels der spektroskopischen Daten die theoretischen Modelle zu testen. Lediglich für Ra+ fehlen bislang als einzigem Erdalkali-Ion diese Daten wie z.B. die Lebensdauern der metastabilen Niveaus. Diese wären auch von Interesse für bereits geplante Radium-Experimente zur Paritätsverletzung. Im ersten Teil dieser Arbeit wird der Aufbau eines Laser-Paulfallenexperiments zur Messung der Lebensdauer des 6D3/2 Zustands von 226Ra+ dokumentiert und es werden Testmessungen mit 138Ba+ vorgestellt. 2) Für die Verwendung der Paulfalle in der Massenspektroskopie und zur Analyse von Reaktionsprodukten ist die Kenntnis der Lage der im Speicherbereich auftretenden nichtlinearen Resonanzen wesentlich, ebenso wie deren Veränderung durch Dämpfung und Raumladung. Im zweiten Teil dieser Arbeit werden detaillierte Untersuchungen der Speicherung großer puffergasgekühlter Ionenwolken an zwei unterschiedlichen Paulfallen-Experimenten vorgestellt. Am ersten wurden 138Ba+-Ionenwolken kontinuierlich durch Laserspektroskopie bzw. über einen elektronischen Nachweis beobachtet, während das zweite N2+-Molekülionen automatisiert destruktiv nachwies. Am N2+-Experiment wurden zwei hochaufgelöste Messungen des ersten Speicherbereichs durchgeführt, die erstmals eine direkte Überprüfung der theoretisch berechneten Verläufe der Resonanzen mit experimentellen Daten erlauben. Die Nachweiseichung ermöglichte dabei zum ersten Mal die Angabe absoluter Ionenzahlen. Im Gegensatz zu vergleichbaren früheren Messungen wurden hierbei die sich überlagernden Speicherbereiche von 4 simultan gespeicherten Ionensorten beobachtet und zur Analyse der Resonanzen herangezogen. Die nichtlinearen Resonanzen wurden untersucht bei Variation von Puffergasdruck und Ionenzahl, wobei kollektive Resonanzen ohne zusätzliche externe Anregung beobachtet wurden. Die gemessenen Raumladungsverschiebungen wurden mit theoretischen Modellen verglichen. Bei Variation des Puffergasdrucks wurde mit Bariumionen die räumliche Ausdehnung der Ionenwolke gemessen und mit Stickstoffionen die Verschiebung des Punktes optimaler Speicherung bestimmt. Dabei wurde festgestellt, daß der zum Ioneneinfang optimale Puffergasdruck kleiner ist als der, bei dem die längsten Speicherdauern erzielt werden. Mit gespeicherten N2+-Ionen wurde die Position extern angeregter kollektiver und individueller Resonanzen im Frequenzspektrum bei Änderung der Parameter Ionenzahl, Puffergasdruck und Dauer der Anregung untersucht, ebenso wie die Resonanzform, die mit theoretischen Linienformen verglichen wurde. Bei Änderung der Fallenparameter wurden verstärkende Effekte zwischen nahen kollektiven Resonanzen festgestellt. Die Beobachtung, welche der im Frequenzspektrum vorher identifizierten Bewegungs-Resonanzen sich bei Variation der Fallenparameter a bzw. q überlagern, ermöglicht eine bislang nicht beschriebene einfache Methode der Bestimmung von nichtlinearen Resonanzen im Stabilitätsdiagramm.
Resumo:
This thesis reports on the realization, characterization and analysis of ultracold bosonic and fermionic atoms in three-dimensional optical lattice potentials. Ultracold quantum gases in optical lattices can be regarded as ideal model systems to investigate quantum many-body physics. In this work interacting ensembles of bosonic 87Rb and fermionic 40K atoms are employed to study equilibrium phases and nonequilibrium dynamics. The investigations are enabled by a versatile experimental setup, whose core feature is a blue-detuned optical lattice that is combined with Feshbach resonances and a red-detuned dipole trap to allow for independent control of tunneling, interactions and external confinement. The Fermi-Hubbard model, which plays a central role in the theoretical description of strongly correlated electrons, is experimentally realized by loading interacting fermionic spin mixtures into the optical lattice. Using phase-contrast imaging the in-situ size of the atomic density distribution is measured, which allows to extract the global compressibility of the many-body state as a function of interaction and external confinement. Thereby, metallic and insulating phases are clearly identified. At strongly repulsive interaction, a vanishing compressibility and suppression of doubly occupied lattice sites signal the emergence of a fermionic Mott insulator. In a second series of experiments interaction effects in bosonic lattice quantum gases are analyzed. Typically, interactions between microscopic particles are described as two-body interactions. As such they are also contained in the single-band Bose-Hubbard model. However, our measurements demonstrate the presence of multi-body interactions that effectively emerge via virtual transitions of atoms to higher lattice bands. These findings are enabled by the development of a novel atom optical measurement technique: In quantum phase revival spectroscopy periodic collapse and revival dynamics of the bosonic matter wave field are induced. The frequencies of the dynamics are directly related to the on-site interaction energies of atomic Fock states and can be read out with high precision. The third part of this work deals with mixtures of bosons and fermions in optical lattices, in which the interspecies interactions are accurately controlled by means of a Feshbach resonance. Studies of the equilibrium phases show that the bosonic superfluid to Mott insulator transition is shifted towards lower lattice depths when bosons and fermions interact attractively. This observation is further analyzed by applying quantum phase revival spectroscopy to few-body systems consisting of a single fermion and a coherent bosonic field on individual lattice sites. In addition to the direct measurement of Bose-Fermi interaction energies, Bose-Bose interactions are proven to be modified by the presence of a fermion. This renormalization of bosonic interaction energies can explain the shift of the Mott insulator transition. The experiments of this thesis lay important foundations for future studies of quantum magnetism with fermionic spin mixtures as well as for the realization of complex quantum phases with Bose-Fermi mixtures. They furthermore point towards physics that reaches beyond the single-band Hubbard model.