968 resultados para High-precision Radiocarbon Dating


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wird das Phasenverhalten fluid-kristallin und kristallin-amorph, die elastischen Eigenschaften, das Nukleationsverhalten und das diffusive Verhalten ladungsstabilisierter Kolloide aus sphärischen Polystyrol- und Polytetrafluorethylenpartikeln in wässerigen Dispersionsmitteln bei sehr geringem Fremdionengehalt systematisch untersucht. Die dazugehörigen Messungen werden an einer neuartigen selbstkonstruierten Kombinationslichtstreuapparatur durchgeführt, die die Meßmethoden der dynamischen Lichtstreuung, statischen Lichtstreuung und Torsionsresonanzspektroskopie in sich vereint. Die drei Meßmethoden sind optimal auf die Untersuchung kolloidaler Festkörper abgestimmt. Das elastische Verhalten der Festkörper kann sehr gut durch die Elastizitätstheorie atomarer Kristallsysteme beschrieben werden, wenn ein Debye-Hückel-Potential im Sinne des Poisson-Boltzmann-Cell Modells als Wechselwirkungspotential verwendet wird. Die ermittelten Phasengrenzen fluid-kristallin stehen erstmalig in guter Übereinstimmung mit Ergebnissen aus molekulardynamischen Simulationen, wenn die in der Torsionsresonanzspektroskopie bestimmte Wechselwirkungsenergie zu Grunde gelegt wird. Neben der Gleichgewichtsstruktur sind Aussagen zur Verfestigungskinetik möglich. Das gefundene Nukleationserhalten kann gut durch die klassische Nukleationstheorie beschrieben werden, wenn bei niedriger Unterkühlung der Schmelze ein Untergrund heterogener Keimung berücksichtigt wird. PTFE-Partikel zeigen auch bei hohen Konzentrationen nur geringfügige Mehrfachstreuung. Durch ihren Einsatz ist erstmals eine systematische Untersuchung des Glasübergangs in hochgeladenen ladungsstabilisierten Systemen möglich. Ladungsstabilisierte Kolloide unterscheiden sich vor allem durch ihre extreme Kristallisationstendenz von früher untersuchten Hartkugelsystemen. Bei hohen Partikelkonzentrationen (Volumenbrüche größer 10 Prozent) kann ein glasartiger Festkörper identifiziert werden, dessen physikalisches Verhalten die Existenz eines Bernalglases nahe legt. Der Glasübergang ist im Vergleich mit den in anderen kolloidalen Systemen und atomaren Systemen beobachteten Übergängen von sehr unterschiedlichem Charakter. Im verwendeten PTFE-System ist auf Grund der langreichweitigen stark repulsiven Wechselwirkung kein direkter Zugang des Glaszustandes aus der übersättigten Schmelze möglich. Der amorphe Festkörper entsteht hier aus einer nanokristallinen Phase. Die Keimrate steigt im zugänglichen Meßbereich annähernd exponentiell mit der Partikelanzahldichte, so daß man feststellen kann, daß der Glaszustand nicht durch Unterdrückung der Nukleation, sondern durch eine Forcierung derselben erreicht wird.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ionenkäfige und speziell Penningfallen stellen sich in der Atomphysik als außergewöhnliche Werkzeuge heraus. Zum einen bieten diese 'Teilchencontainer' die Möglichkeit atomphysikalische Präzisionsmessungen durchzuführen und zum anderen stellen Penningfallen schwingungsfähige Systeme dar, in welchen nichtlineare dynamische Prozesse an gespeicherten Teilchen untersucht werden können. In einem ersten Teil der Arbeit wurde mit der in der Atomphysik bekannten Methode der optischen Mikrowellen-Doppelresonanz Spektroskopie der elektronische g-Faktor von Ca+ mit einer Genauigkeit von 4*10^{-8} zu gJ=2,00225664(9) bestimmt. g-Faktoren von Elektronen in gebundenen ionischen Systemen sind fundamentale Größen der Atomphysik, die Informationen über die atomare Wellenfunktion des zu untersuchenden Zustandes liefern. In einem zweiten Teil der Arbeit wurde hinsichtlich der Untersuchungen zur nichtlinearen Dynamik von parametrisch angeregten gespeicherten Elektronen beobachtet, dass ab bestimmten kritischen Teilchendichten in der Penningfalle die gespeicherten Elektronen kollektive Eigenschaften manifestieren. Weiterhin wurde bei der Anregung der axialen Eigenbewegung ein Schwellenverhalten der gemessenen Subharmonischen zur 2*omega_z-Resonanz beobachtet. Dieser Schwelleneffekt lässt sich mit der Existenz eines Dämpfungsmechanismus erklären, der auf die Elektronenwolke einwirkt, so dass eine Mindestamplitude der Anregung erforderlich ist, um diese Dämpfung zu überwinden. Durch Bestimmung der charakteristischen Kurven der gedämpften Mathieuschen Differentialgleichung konnte das beobachtete Phänomen theoretisch verstanden werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Deutsche Version: Zunächst wird eine verallgemeinerte Renormierungsgruppengleichung für die effektiveMittelwertwirkung der EuklidischenQuanten-Einstein-Gravitation konstruiert und dann auf zwei unterschiedliche Trunkierungen, dieEinstein-Hilbert-Trunkierung und die$R^2$-Trunkierung, angewendet. Aus den resultierendenDifferentialgleichungen wird jeweils die Fixpunktstrukturbestimmt. Die Einstein-Hilbert-Trunkierung liefert nebeneinem Gaußschen auch einen nicht-Gaußschen Fixpunkt. Diesernicht-Gaußsche Fixpunkt und auch der Fluß in seinemEinzugsbereich werden mit hoher Genauigkeit durch die$R^2$-Trunkierung reproduziert. Weiterhin erweist sichdie Cutoffschema-Abhängigkeit der analysierten universellenGrößen als äußerst schwach. Diese Ergebnisse deuten daraufhin, daß dieser Fixpunkt wahrscheinlich auch in der exaktenTheorie existiert und die vierdimensionaleQuanten-Einstein-Gravitation somit nichtperturbativ renormierbar sein könnte. Anschließend wird gezeigt, daß der ultraviolette Bereich der$R^2$-Trunkierung und somit auch die Analyse des zugehörigenFixpunkts nicht von den Stabilitätsproblemen betroffen sind,die normalerweise durch den konformen Faktor der Metrikverursacht werden. Dadurch motiviert, wird daraufhin einskalares Spielzeugmodell, das den konformen Sektor einer``$-R+R^2$''-Theorie simuliert, hinsichtlich seinerStabilitätseigenschaften im infraroten (IR) Bereichstudiert. Dabei stellt sich heraus, daß sich die Theorieunter Ausbildung einer nichttrivialen Vakuumstruktur auf dynamische Weise stabilisiert. In der Gravitation könnteneventuell nichtlokale Invarianten des Typs $intd^dx,sqrt{g}R (D^2)^{-1} R$ dafür sorgen, daß der konformeSektor auf ähnliche Weise IR-stabil wird.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diese Arbeit untersucht die longitudinale und transversaleStrahldynamik am Mainzer Mikrotron MAMI. Die gemessenen Abbildungseigenschaften werden mit den Design-Rechnungen verglichen. Dadurch konnte die Strahlqualitaet von MAMI B und das Design der neuen HDSM Mikrotronstufe verbessert werden. Es wurde eine Stoerungsrechnung formuliert, um die 6-DAbbildungsmatrix entlang der Beschleunigungsstrecke zu berechnen. Ausgehend von der linearisierten Hamilton Funktion wird die Transfermatrix M in eine unendliche Summe ueber Matrizen M(n) zerlegt, die jeweils eine n-fache Wechselwirkung des Strahls mit dem Quadrupolanteil des Fuehrungsfeldes darstellen. Dank des tieferen Einblicks in die Auswirkung von Feldfehlern konnte damit das Mikrotron-Modell leicht an die gemessenen Transfermatrizen angepasst werden. Ferner wurde die Identifizierung und Korrektur anti-symmetrischer Feldfehler in den Mikrotron-Dipolen untersucht. Es wurde ein Messverfahren entwickelt, um kleine Feldkomponenten in der Bahnebene von der Groessenordnung 10E-3 zu erkennen. Das vorgeschlagene Verfahren wurde mit Hilfe des Simulationsprogramms TOSCA ausgetestet. Schliesslich wurde die Stabilitaet der Longitudinaloptik verbessert. Dadurch konnte eine hochpraezise Energiestabi-lisierung verwirklicht werden. Bei 855 MeV Strahlenergie wird eine Stabilitaet von etwa 10E-6 erreicht.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wurden wässrige Suspensionen ladungsstabilisierter kolloidaler Partikel bezüglich ihres Verhaltens unter dem Einfluss elektrischer Felder untersucht. Insbesondere wurde die elektrophoretische Mobilität µ über einen weiten Partikelkonzentrationsbereich studiert, um das individuelle Verhalten einzelner Partikel mit dem bisher nur wenig untersuchten kollektiven Verhalten von Partikelensembles (speziell von fluid oder kristallin geordneten Ensembles) zu vergleichen. Dazu wurde ein superheterodynes Dopplervelocimetrisches Lichtstreuexperiment mit integraler und lokaler Datenerfassung konzipiert, das es erlaubt, die Geschwindigkeit der Partikel in elektrischen Feldern zu studieren. Das Experiment wurde zunächst erfolgreich im Bereich nicht-ordnender und fluid geordneter Suspensionen getestet. Danach konnte mit diesem Gerät erstmals das elektrophoretische Verhalten von kristallin geordneten Suspensionen untersucht werden. Es wurde ein komplexes Fließverhalten beobachtet und ausführlich dokumentiert. Dabei wurden bisher in diesem Zusammenhang noch nicht beobachtete Effekte wie Blockfluss, Scherbandbildung, Scherschmelzen oder elastische Resonanzen gefunden. Andererseits machte dieses Verhalten die Entwicklung einer neuen Auswertungsroutine für µ im kristallinen Zustand notwendig, wozu die heterodyne Lichtstreutheorie auf den superheterodynen Fall mit Verscherung erweitert werden musste. Dies wurde zunächst für nicht geordnete Systeme durchgeführt. Diese genäherte Beschreibung genügte, um unter den gegebenen Versuchbedingungen auch das Lichtstreuverhalten gescherter kristalliner Systeme zu interpretieren. Damit konnte als weiteres wichtiges Resultat eine generelle Mobilitäts-Konzentrations-Kurve erhalten werden. Diese zeigt bei geringen Partikelkonzentrationen den bereits bekannten Anstieg und bei mittleren Konzentrationen ein Plateau. Bei hohen Konzentrationen sinkt die Mobilität wieder ab. Zur Interpretation dieses Verhaltens bzgl. Partikelladung stehen derzeit nur Theorien für nicht wechselwirkende Partikel zur Verfügung. Wendet man diese an, so findet man eine überraschend gute Übereinstimmung der elektrophoretisch bestimmten Partikelladung Z*µ mit numerisch bestimmten effektiven Partikelladungen Z*PBC.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Gaia space mission is a major project for the European astronomical community. As challenging as it is, the processing and analysis of the huge data-flow incoming from Gaia is the subject of thorough study and preparatory work by the DPAC (Data Processing and Analysis Consortium), in charge of all aspects of the Gaia data reduction. This PhD Thesis was carried out in the framework of the DPAC, within the team based in Bologna. The task of the Bologna team is to define the calibration model and to build a grid of spectro-photometric standard stars (SPSS) suitable for the absolute flux calibration of the Gaia G-band photometry and the BP/RP spectrophotometry. Such a flux calibration can be performed by repeatedly observing each SPSS during the life-time of the Gaia mission and by comparing the observed Gaia spectra to the spectra obtained by our ground-based observations. Due to both the different observing sites involved and the huge amount of frames expected (≃100000), it is essential to maintain the maximum homogeneity in data quality, acquisition and treatment, and a particular care has to be used to test the capabilities of each telescope/instrument combination (through the “instrument familiarization plan”), to devise methods to keep under control, and eventually to correct for, the typical instrumental effects that can affect the high precision required for the Gaia SPSS grid (a few % with respect to Vega). I contributed to the ground-based survey of Gaia SPSS in many respects: with the observations, the instrument familiarization plan, the data reduction and analysis activities (both photometry and spectroscopy), and to the maintenance of the data archives. However, the field I was personally responsible for was photometry and in particular relative photometry for the production of short-term light curves. In this context I defined and tested a semi-automated pipeline which allows for the pre-reduction of imaging SPSS data and the production of aperture photometry catalogues ready to be used for further analysis. A series of semi-automated quality control criteria are included in the pipeline at various levels, from pre-reduction, to aperture photometry, to light curves production and analysis.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis we consider three different models for strongly correlated electrons, namely a multi-band Hubbard model as well as the spinless Falicov-Kimball model, both with a semi-elliptical density of states in the limit of infinite dimensions d, and the attractive Hubbard model on a square lattice in d=2. In the first part, we study a two-band Hubbard model with unequal bandwidths and anisotropic Hund's rule coupling (J_z-model) in the limit of infinite dimensions within the dynamical mean-field theory (DMFT). Here, the DMFT impurity problem is solved with the use of quantum Monte Carlo (QMC) simulations. Our main result is that the J_z-model describes the occurrence of an orbital-selective Mott transition (OSMT), in contrast to earlier findings. We investigate the model with a high-precision DMFT algorithm, which was developed as part of this thesis and which supplements QMC with a high-frequency expansion of the self-energy. The main advantage of this scheme is the extraordinary accuracy of the numerical solutions, which can be obtained already with moderate computational effort, so that studies of multi-orbital systems within the DMFT+QMC are strongly improved. We also found that a suitably defined Falicov-Kimball (FK) model exhibits an OSMT, revealing the close connection of the Falicov-Kimball physics to the J_z-model in the OSM phase. In the second part of this thesis we study the attractive Hubbard model in two spatial dimensions within second-order self-consistent perturbation theory. This model is considered on a square lattice at finite doping and at low temperatures. Our main result is that the predictions of first-order perturbation theory (Hartree-Fock approximation) are renormalized by a factor of the order of unity even at arbitrarily weak interaction (U->0). The renormalization factor q can be evaluated as a function of the filling n for 00, the q-factor vanishes, signaling the divergence of self-consistent perturbation theory in this limit. Thus we present the first asymptotically exact results at weak-coupling for the negative-U Hubbard model in d=2 at finite doping.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis is based on the integration of traditional and innovative approaches aimed at improving the normal faults seimogenic identification and characterization, focusing mainly on slip-rate estimate as a measure of the fault activity. The L’Aquila Mw 6.3 April 6, 2009 earthquake causative fault, namely the Paganica - San Demetrio fault system (PSDFS), was used as a test site. We developed a multidisciplinary and scale‐based strategy consisting of paleoseismological investigations, detailed geomorphological and geological field studies, as well as shallow geophysical imaging and an innovative application of physical properties measurements. We produced a detailed geomorphological and geological map of the PSDFS, defining its tectonic style, arrangement, kinematics, extent, geometry and internal complexities. The PSDFS is a 19 km-long tectonic structure, characterized by a complex structural setting and arranged in two main sectors: the Paganica sector to the NW, characterized by a narrow deformation zone, and the San Demetrio sector to SE, where the strain is accommodated by several tectonic structures, exhuming and dissecting a wide Quaternary basin, suggesting the occurrence of strain migration through time. The integration of all the fault displacement data and age constraints (radiocarbon dating, optically stimulated luminescence (OSL) and tephrochronology) helped in calculating an average Quaternary slip-rate representative for the PSDFS of 0.27 - 0.48 mm/yr. On the basis of its length (ca. 20 km) and slip per event (up to 0.8 m) we also estimated a max expected Magnitude of 6.3-6.8 for this fault. All these topics have a significant implication in terms of surface faulting hazard in the area and may contribute also to the understanding of the PSDFS seismic behavior and of the local seismic hazard.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the present thesis, the geochemistry, petrology and geochronology of ophiolite complexes from central northern Greece were studied in detail in order to gain insights on the petrogenetic pathways and geodynamic processes that lead to their formation and evolution. The major- and trace-element content of minerals and whole rocks from all four ophiolite complexes was determined using high-precision analytical equipment. These results were then coupled with Nd and Sr isotopic measurements. In order to precisely place the evolution of these ophiolites in time, U-Pb geochronology on zircons was conducted using a SHRIMP-II. The data obtained suggest that the ophiolites studied invariably show typical characteristics of subduction-zone magmatism (e.g. negative Nb anomalies, Th enrichment). In N-MORB-normalised multielement profiles the high field-strength elements display patterns that vary from depleted to N-MORB-like. Chondrite-normalised rare-earth element (REE) profiles show flat heavy-REE patterns suggesting a shallow regime of source melting for all the ophiolites, well within the stability field of spinel lherzolite. The majority of the samples have light-REE depleted patterns. 87Sr/86Sr isotopic ratios range from 0.703184 to 0.715853 and are in cases influenced by alteration. The εNd values are positive (the majority of the mafic samples is typically 7.1-3.1) but lower than N-MORB and depleted mantle. With the exception of the Thessaloniki ophiolite that has uniform island-arc tholeiitic chemical characteristics, the rest of the ophiolites show dual chemistry consisting of rocks with minor subduction-zone characteristics that resemble chemically back-arc basin basalts (BABB) and rocks with more pronounced subduction-zone characteristics. Tectonomagmatic discrimination schemes classify the samples as island-arc tholeiites and back-arc basin basalts or N-MORB. Melting modelling carried out to evaluate source properties and degree of melting verifies the dual nature of the ophiolites. The samples that resemble back-arc basin basalts require very small degrees of melting (<10%) of fertile sources, whereas the rest of the samples require higher degrees (25-15%) of melting. As deduced from the present geochemical and petrological investigation, the ophiolites from Guevguely, Oraeokastro, Thessaloniki, and Chalkidiki represent relics of supra-subduction zone crust that formed in succeeding stages of island-arc rifting and back-arc spreading as well as in a fore arc setting. The geochronological results have provided precise determination of the timing of formation of these complexes. The age of the Guevguely ophiolite has been determined as 167±1.2 Ma, that of Thessaloniki as 169±1.4 Ma, that of Kassandra as 167±2.2 Ma and that of Sithonia as 160±1.2 Ma.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The dissertation presented here deals with high-precision Penning trap mass spectrometry on short-lived radionuclides. Owed to the ability of revealing all nucleonic interactions, mass measurements far off the line of ß-stability are expected to bring new insight to the current knowledge of nuclear properties and serve to test the predictive power of mass models and formulas. In nuclear astrophysics, atomic masses are fundamental parameters for the understanding of the synthesis of nuclei in the stellar environments. This thesis presents ten mass values of radionuclides around A = 90 interspersed in the predicted rp-process pathway. Six of them have been experimentally determined for the first time. The measurements have been carried out at the Penning-trap mass spectrometer SHIPTRAP using the destructive time-of-fligh ion-cyclotron-resonance (TOF-ICR) detection technique. Given the limited performance of the TOF-ICR detection when trying to investigate heavy/superheavy species with small production cross sections (σ< 1 μb), a new detection system is found to be necessary. Thus, the second part of this thesis deals with the commissioning of a cryogenic double-Penning trap system for the application of a highly-sensitive, narrow-band Fourier-transform ion-cyclotron-resonance (FT-ICR) detection technique. With the non-destructive FT-ICR detection method a single singly-charged trapped ion will provide the required information to determine its mass. First off-line tests of a new detector system based on a channeltron with an attached conversion dynode, of a cryogenic pumping barrier, to guarantee ultra-high vacuum conditions during mass determination, and of the detection electronics for the required single-ion sensitivity are reported.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Heutzutage gewähren hochpräzise Massenmessungen mit Penning-Fallen tiefe Einblicke in die fundamentalen Eigenschaften der Kernmaterie. Zu diesem Zweck wird die freie Zyklotronfrequenz eines Ions bestimmt, das in einem starken, homogenen Magnetfeld gespeichert ist. Am ISOLTRAP-Massenspektrometer an ISOLDE / CERN können die Massen von kurzlebigen, radioaktiven Nukliden mit Halbwertszeiten bis zu einigen zehn ms mit einer Unsicherheit in der Größenordnung von 10^-8 bestimmt werden. ISOLTRAP besteht aus einem Radiofrequenz-Quadrupol zum akkumulieren der von ISOLDE gelieferten Ionen, sowie zwei Penning-Fallen zum säubern und zur Massenbestimmung der Ionen. Innerhalb dieser Arbeit wurden die Massen von neutronenreichen Xenon- und Radonisotopen (138-146Xe und 223-229Rn) gemessen. Für elf davon wurde zum ersten Mal die Masse direkt bestimmt; 229Rn wurde im Zuge dieses Experimentes sogar erstmalig beobachtet und seine Halbwertszeit konnte zu ungefähr 12 s bestimmt werden. Da die Masse eines Nuklids alle Wechselwirkungen innerhalb des Kerns widerspiegelt, ist sie einzigartig für jedes Nuklid. Eine dieser Wechselwirkungen, die Wechselwirkung zwischen Protonen und Neutronen, führt zum Beispiel zu Deformationen. Das Ziel dieser Arbeit ist eine Verbindung zwischen kollektiven Effekten, wie Deformationen und Doppeldifferenzen von Bindungsenergien, sogenannten deltaVpn-Werten zu finden. Insbesondere in den hier untersuchten Regionen zeigen deltaVpn-Werte ein sehr ungewöhnliches Verhalten, das sich nicht mit einfachen Argumenten deuten lässt. Eine Erklärung könnte das Auftreten von Oktupoldeformationen in diesen Gebieten sein. Nichtsdestotrotz ist eine quantitative Beschreibung von deltaVpn-Werten, die den Effekt von solchen Deformationen berücksichtigt mit modernen Theorien noch nicht möglich.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

“Plasmon” is a synonym for collective oscillations of the conduction electrons in a metal nanoparticle (excited by an incoming light wave), which cause strong optical responses like efficient light scattering. The scattering cross-section with respect to the light wavelength depends not only on material, size and shape of the nanoparticle, but also on the refractive index of the embedding medium. For this reason, plasmonic nanoparticles are interesting candidates for sensing applications. Here, two novel setups for rapid spectral investigations of single nanoparticles and different sensing experiments are presented.rnrnPrecisely, the novel setups are based on an optical microscope operated in darkfield modus. For the fast single particle spectroscopy (fastSPS) setup, the entrance pinhole of a coupled spectrometer is replaced by a liquid crystal device (LCD) acting as spatially addressable electronic shutter. This improvement allows the automatic and continuous investigation of several particles in parallel for the first time. The second novel setup (RotPOL) usesrna rotating wedge-shaped polarizer and encodes the full polarization information of each particle within one image, which reveals the symmetry of the particles and their plasmon modes. Both setups are used to observe nanoparticle growth in situ on a single-particle level to extract quantitative data on nanoparticle growth.rnrnUsing the fastSPS setup, I investigate the membrane coating of gold nanorods in aqueous solution and show unequivocally the subsequent detection of protein binding to the membrane. This binding process leads to a spectral shift of the particles resonance due to the higher refractive index of the protein compared to water. Hence, the nanosized addressable sensor platform allows for local analysis of protein interactions with biological membranes as a function of the lateral composition of phase separated membranes.rnrnThe sensitivity on changes in the environmental refractive index depends on the particles’ aspect ratio. On the basis of simulations and experiments, I could present the existence of an optimal aspect ratio range between 3 and 4 for gold nanorods for sensing applications. A further sensitivity increase can only be reached by chemical modifications of the gold nanorods. This can be achieved by synthesizing an additional porous gold cage around the nanorods, resulting in a plasmon sensitivity raise of up to 50 % for those “nanorattles” compared to gold nanorods with the same resonance wavelength. Another possibility isrnto coat the gold nanorods with a thin silver shell. This reduces the single particle’s resonance spectral linewidth about 30 %, which enlarges the resolution of the observable shift. rnrnThis silver coating evokes the interesting effect of reducing the ensemble plasmon linewidth by changing the relation connecting particle shape and plasmon resonance wavelength. This change, I term plasmonic focusing, leads to less variation of resonance wavelengths for the same particle size distribution, which I show experimentally and theoretically.rnrnIn a system of two coupled nanoparticles, the plasmon modes of the transversal and longitudinal axis depend on the refractive index of the environmental solution, but only the latter one is influenced by the interparticle distance. I show that monitoring both modes provides a self-calibrating system, where interparticle distance variations and changes of the environmental refractive index can be determined with high precision.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The LHCb experiment at the LHC, by exploiting the high production cross section for $c\overline{c}$ quark pairs, offers the possibility to investigate $\mathcal{CP}$ violation in the charm sector with a very high precision.\\ In this thesis a measurement of time-integrated \(\mathcal{CP}\) violation using $D^0\rightarrow~K^+K^-$ and $D^0\rightarrow \pi^+\pi^-$ decays at LHCb is presented. The measured quantity is the difference ($\Delta$) of \(\mathcal{CP}\) asymmetry ($\mathcal{A}_{\mathcal{CP}}$) between the decay rates of $D^0$ and $\overline{D}^0$ mesons into $K^+K^–$ and $\pi^+\pi^-$ pairs.\\ The analysis is performed on 2011 data, collected at \(\sqrt{s}=7\) TeV and corresponding to an integrated luminosity of 1 fb\(^{-1}\), and 2012 data, collected at \(\sqrt{s}=8\) TeV and corresponding to an integrated luminosity of 2 fb\(^{-1}\).\\ A complete study of systematic uncertainties is beyond the aim of this thesis. However the most important systematic of the previous analysis has been studied. We find that this systematic uncertainty was due to a statistical fluctuation and then we demonstrate that it is no longer necessary to take into account.\\ By combining the 2011 and 2012 results, the final statistical precision is 0.08\%. When this analysis will be completed and published, this will be the most precise single measurement in the search for $\mathcal{CP}$ violation in the charm sector.