134 resultados para Fehler


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Quantitative branch determination in polyolefins by solid- and melt-state 13C NMR has been investigated. Both methods were optimised toward sensitivity per unit time. While solid-state NMR was shown to give quick albeit only qualitative results, melt-state NMR allowed highly time efficient accurate branch quantification. Comparison of spectra obtained using spectrometers operating at 300, 500 and 700 MHz 1H Larmor frequency, with 4 and 7~mm MAS probeheads, showed that the best sensitivity was achieved at 500 MHz using a 7 mm 13C-1H optimised high temperature probehead. For materials available in large quantities, static melt-state NMR, using large diameter detection coils and high coil filling at 300 MHz, was shown to produce comparable results to melt-state MAS measurements in less time. While the use of J-coupling mediated polarisation transfer techniques was shown to be possible, direct polarisation via single-pulse excitation proved to be more suitable for branch quantification in the melt-state. Artificial line broadening, introduced by FID truncation, was able to be reduced by the use of π pulse-train heteronuclear dipolar decoupling. This decoupling method, when combined with an extended duty-cycle, allowed for significant improvement in resolution. Standard setup, processing and analysis techniques were developed to minimise systematic errors contributing to the measured branch contents. The final optimised melt-state MAS NMR method was shown to allow time efficient quantification of comonomer content and distribution in both polyethylene- and polypropylene-co-α-olefins. The sensitivity of the technique was demonstrated by quantifying branch concentrations of 8 branches per 100,000 CH2 for an industrial ‘linear’ polyethylene in only 13 hours. Even lower degrees of 3–8 long-chain branches per 100,000 carbons were able to be estimated in just 24 hours for a series of γ-irradiated polypropylene homopolymers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Standardmodell (SM) der Teilchenphysik beschreibt sehr präzise die fundamentalen Bausteine und deren Wechselwirkungen (WW). Trotz des Erfolges gibt es noch offene Fragen, die vom SM nicht beantwortet werden können. Ein noch noch nicht abgeschlossener Test besteht aus der Messung der Stärke der schwachen Kopplung zwischen Quarks. Neutrale B- bzw. $bar{B}$-Mesonen können sich innerhalb ihrer Lebensdauer über einen Prozeß der schwachen WW in ihr Antiteilchen transformieren. Durch die Messung der Bs-Oszillation kann die Kopplung Vtd zwischen den Quarksorten Top (t) und Down (d) bestimmt werden. Alle bis Ende 2005 durchgeführten Experimente lieferten lediglich eine untere Grenze für die Oszillationsfrequenz von ms>14,4ps-1. Die vorliegenden Arbeit beschreibt die Messung der Bs-Oszillationsfrequenz ms mit dem semileptonischen Kanal BsD(-)+. Die verwendeten Daten stammen aus Proton-Antiproton-Kollisionen, die im Zeitraum von April 2002 bis März 2006 mit dem DØ-Detektor am Tevatron-Beschleuniger des Fermi National Accelerator Laboratory bei einer Schwerpunktsenergie von $sqrt{s}$=1,96TeV aufgezeichnet wurden. Die verwendeten Datensätze entsprechen einer integrierten Luminosität von 1,3fb-1 (620 millionen Ereignisse). Für diese Oszillationsmessung wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion sowie des Zerfalls bestimmt und die Zerfallszeit wurde gemessen. Nach der Rekonstruktion und Selektion der Signalereignisse legt die Ladung des Myons den Quarkinhalt des Bs-Mesons zur Zeit des Zerfalls fest. Zusätzlich wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion markiert. b-Quarks werden in $pbar{p}$-Kollisionen paarweise produziert. Die Zerfallsprodukte des zweiten b-Hadrons legen den Quarkinhalt des Bs-Mesons zur Zeit der Produktion fest. Bei einer Sensitivität von msenss=14,5ps-1 wurde eine untere Grenze für die Oszillationsfrequenz ms>15,5ps-1 bestimmt. Die Maximum-Likelihood-Methode lieferte eine Oszillationsfrequenz ms>(20+2,5-3,0(stat+syst)0,8(syst,k))ps-1 bei einem Vertrauensniveau von 90%. Der nicht nachgewiesene Neutrinoimpuls führt zu dem systematischen Fehler (sys,k). Dieses Resultat ergibt zusammen mit der entsprechenden Oszillation des Bd-Mesons eine signifikante Messung der Kopplung Vtd, in Übereinstimmung mit weiteren Experimenten über die schwachen Quarkkopplungen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The subject of this thesis is in the area of Applied Mathematics known as Inverse Problems. Inverse problems are those where a set of measured data is analysed in order to get as much information as possible on a model which is assumed to represent a system in the real world. We study two inverse problems in the fields of classical and quantum physics: QCD condensates from tau-decay data and the inverse conductivity problem. Despite a concentrated effort by physicists extending over many years, an understanding of QCD from first principles continues to be elusive. Fortunately, data continues to appear which provide a rather direct probe of the inner workings of the strong interactions. We use a functional method which allows us to extract within rather general assumptions phenomenological parameters of QCD (the condensates) from a comparison of the time-like experimental data with asymptotic space-like results from theory. The price to be paid for the generality of assumptions is relatively large errors in the values of the extracted parameters. Although we do not claim that our method is superior to other approaches, we hope that our results lend additional confidence to the numerical results obtained with the help of methods based on QCD sum rules. EIT is a technology developed to image the electrical conductivity distribution of a conductive medium. The technique works by performing simultaneous measurements of direct or alternating electric currents and voltages on the boundary of an object. These are the data used by an image reconstruction algorithm to determine the electrical conductivity distribution within the object. In this thesis, two approaches of EIT image reconstruction are proposed. The first is based on reformulating the inverse problem in terms of integral equations. This method uses only a single set of measurements for the reconstruction. The second approach is an algorithm based on linearisation which uses more then one set of measurements. A promising result is that one can qualitatively reconstruct the conductivity inside the cross-section of a human chest. Even though the human volunteer is neither two-dimensional nor circular, such reconstructions can be useful in medical applications: monitoring for lung problems such as accumulating fluid or a collapsed lung and noninvasive monitoring of heart function and blood flow.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurde die elektromagnetische Pionproduktion unter der Annahme der Isospinsymmetrie der starken Wechselwirkung im Rahmen der manifest Lorentz-invarianten chiralen Störungstheorie in einer Einschleifenrechnung bis zur Ordnung vier untersucht. Dazu wurden auf der Grundlage des Mathematica-Pakets FeynCalc Algorithmen zur Berechnung der Pionproduktionsamplitude entwickelt. Bis einschließlich der Ordnung vier tragen insgesamt 105 Feynmandiagramme bei, die sich in 20 Baumdiagramme und 85 Schleifendiagramme unterteilen lassen. Von den 20 Baumdiagrammen wiederum sind 16 als Polterme und vier als Kontaktgraphen zu klassifizieren; bei den Schleifendiagrammen tragen 50 Diagramme ab der dritten Ordnung und 35 Diagramme ab der vierten Ordnung bei. In der Einphotonaustauschnäherung lässt sich die Pionproduktionsamplitude als ein Produkt des Polarisationsvektors des (virtuellen) Photons und des Übergangsstrommatrixelements parametrisieren, wobei letzteres alle Abhängigkeiten der starken Wechselwirkung beinhaltet und wo somit die chirale Störungstheorie ihren Eingang findet. Der Polarisationsvektor hingegen hängt von dem leptonischen Vertex und dem Photonpropagator ab und ist aus der QED bekannt. Weiterhin lässt sich das Übergangsstrommatrixelement in sechs eichinvariante Amplituden zerlegen, die sich im Rahmen der Isospinsymmetrie jeweils wiederum in drei Isospinamplituden zerlegen lassen. Linearkombinationen dieser Isospinamplituden erlauben letztlich die Beschreibung der physikalischen Amplituden. Die in dieser Rechnung auftretenden Einschleifenintegrale wurden numerisch mittels des Programms LoopTools berechnet. Im Fall tensorieller Integrale erfolgte zunächst eine Zerlegung gemäß der Methode von Passarino und Veltman. Da die somit erhaltenen Ergebnisse jedoch i.a. noch nicht das chirale Zählschema erfüllen, wurde die entsprechende Renormierung mittels der reformulierten Infrarotregularisierung vorgenommen. Zu diesem Zweck wurde ein Verfahren entwickelt, welches die Abzugsterme automatisiert bestimmt. Die schließlich erhaltenen Isospinamplituden wurden in das Programm MAID eingebaut. In diesem Programm wurden als Test (Ergebnisse bis Ordnung drei) die s-Wellenmultipole E_{0+} und L_{0+} in der Schwellenregion berechnet. Die Ergebnisse wurden sowohl mit Messdaten als auch mit den Resultaten des "klassischen" MAID verglichen, wobei sich i. a. gute Übereinstimmungen im Rahmen der Fehler ergaben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden zwölf Q(beta)-Werte von beta-instabilen Pd, Ru, Rh und Tc-Isotopen gemessen. Der betrachtete Massenbereich A=110 bis A=117 liegt am Rande des bekannten Gebiets der Nuklidkarte und umfasst sehr neutronenreiche kurzlebige Isotope dieser Elemente, die sich durch geringe Spalthäufigkeit auszeichnen. Durch die geringen (Spalt-)Häufigkeiten dieser Nuklide liegen kaum Daten vor, teilweise auch nicht über die Niveauschemata. Es ist daher notwendig, eine protoneninduzierte Spaltungsreaktion zur Darstellung dieser Isotope zu verwenden und die Spaltprodukte innerhalb kürzester Zeit für die Messung nach Massen aufzutrennen, wie dies am IGISOL in Jyväskylä/Finnland geschieht. Die aufgebaute Apparatur zur beta,gamma,X-Koinzidenz erlaubt es, während ein und desselben Experiments neben der Messung der Q(beta)-Werte gleichzeitig gamma,X-Koinzidenzen auszuwerten, die die benötigten Grundinformationen für die Q(beta)-Bestimmung über die beta,gamma-Koinzidenzen liefern. Es können somit nicht nur Q(beta)-Werte von Nukliden mit bereits bekannten Niveauschemata ermittelt, sondern auch erfolgreich Nuklide mit unvollständigen Niveauschemata einer ersten Messung unterzogen werden. Umgekehrt können beta,gamma-Koinzidenzdaten weitere Informationen zum Aufbau neuer Niveauschemata liefern. Mit Hilfe der beschriebenen Koinzidenzmessung konnten zwölf Q(beta)-Werte von sehr neutronenreichen Pd- bis Tc-Isotopen gemessen und daraus die Kernmassen, Massenüberschüsse und Neutronen-Separationsenergien bestimmt werden. Von diesen wurden acht Werte erstmalig bestimmt, ein weiterer Wert konnte bestätigt sowie die Fehler von drei weiteren Werten um den Faktor Zehn verringert werden. Die gewonnenen Daten sind von Interesse für die Beurteilung von Kernmassenmodellen und gehen ebenso in Modellrechnungen der nuklearen Astrophysik ein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The optical resonances of metallic nanoparticles placed at nanometer distances from a metal plane were investigated. At certain wavelengths, these “sphere-on-plane” systems become resonant with the incident electromagnetic field and huge enhancements of the field are predicted localized in the small gaps created between the nanoparticle and the plane. An experimental architecture to fabricate sphere-on-plane systems was successfully achieved in which in addition to the commonly used alkanethiols, polyphenylene dendrimers were used as molecular spacers to separate the metallic nanoparticles from the metal planes. They allow for a defined nanoparticle-plane separation and some often are functionalized with a chromophore core which is therefore positioned exactly in the gap. The metal planes used in the system architecture consisted of evaporated thin films of gold or silver. Evaporated gold or silver films have a smooth interface with their substrate and a rougher top surface. To investigate the influence of surface roughness on the optical response of such a film, two gold films were prepared with a smooth and a rough side which were as similar as possible. Surface plasmons were excited in Kretschmann configuration both on the rough and on the smooth side. Their reflectivity could be well modeled by a single gold film for each individual measurement. The film has to be modeled as two layers with significantly different optical constants. The smooth side, although polycrystalline, had an optical response that was very similar to a monocrystalline surface while for the rough side the standard response of evaporated gold is retrieved. For investigations on thin non-absorbing dielectric films though, this heterogeneity introduces only a negligible error. To determine the resonant wavelength of the sphere-on-plane systems a strategy was developed which is based on multi-wavelength surface plasmon spectroscopy experiments in Kretschmann-configuration. The resonant behavior of the system lead to characteristic changes in the surface plasmon dispersion. A quantitative analysis was performed by calculating the polarisability per unit area /A treating the sphere-on-plane systems as an effective layer. This approach completely avoids the ambiguity in the determination of thickness and optical response of thin films in surface plasmon spectroscopy. Equal area densities of polarisable units yielded identical response irrespective of the thickness of the layer they are distributed in. The parameter range where the evaluation of surface plasmon data in terms of /A is applicable was determined for a typical experimental situation. It was shown that this analysis yields reasonable quantitative agreement with a simple theoretical model of the sphere-on-plane resonators and reproduces the results from standard extinction experiments having a higher information content and significantly increased signal-to-noise ratio. With the objective to acquire a better quantitative understanding of the dependence of the resonance wavelength on the geometry of the sphere-on-plane systems, different systems were fabricated in which the gold nanoparticle size, type of spacer and ambient medium were varied and the resonance wavelength of the system was determined. The gold nanoparticle radius was varied in the range from 10 nm to 80 nm. It could be shown that the polyphenylene dendrimers can be used as molecular spacers to fabricate systems which support gap resonances. The resonance wavelength of the systems could be tuned in the optical region between 550 nm and 800 nm. Based on a simple analytical model, a quantitative analysis was developed to relate the systems’ geometry with the resonant wavelength and surprisingly good agreement of this simple model with the experiment without any adjustable parameters was found. The key feature ascribed to sphere-on-plane systems is a very large electromagnetic field localized in volumes in the nanometer range. Experiments towards a quantitative understanding of the field enhancements taking place in the gap of the sphere-on-plane systems were done by monitoring the increase in fluorescence of a metal-supported monolayer of a dye-loaded dendrimer upon decoration of the surface with nanoparticles. The metal used (gold and silver), the colloid mean size and the surface roughness were varied. Large silver crystallites on evaporated silver surfaces lead to the most pronounced fluorescence enhancements in the order of 104. They constitute a very promising sample architecture for the study of field enhancements.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main concern of the A4 parity violation experiment at the Mainzer Microtron accelerator facility is to study the electric and magnetic contributions of strange quarks to the charge and magnetism of the nucleons at the low momentum transfer region. More precisely, the A4 collaboration investigates the strange quarks' contribution to the electric and magnetic vector form factors of the nucleons. Thus, it is important that the A4 experiment uses an adequate and precise non-destructive online monitoring tool for the electron beam polarization when measuring single spin asymmetries in elastic scattering of polarized electrons from unpolarized nucleons. As a consequence, the A4 Compton backscattering polarimeter was designed and installed such that we can take the absolute measurement of the electron beam polarization without interruption to the parity violation experiment. The present study shows the development of an electron beam line that is called the chicane for the A4 Compton backscattering polarimeter. The chicane is an electron beam transport line and provides an interaction region where the electron beam and the laser beam overlap. After studying the properties of beam line components carefully, we developed an electron beam control system that makes a beam overlap between the electron beam and the laser beam. Using the system, we can easily achieve the beam overlap in a short time. The electron control system, of which the performance is outstanding, is being used in production beam times. And the study presents the development of a scintillating fiber electron detector that reduces the statistical error in the electron polarization measurement. We totally redesigned the scintillating fiber detector. The data that were taken during a 2008 beam time shows a huge background suppression, approximately 80 percent, while leaving the Compton spectra almost unchanged when a coincidence between the fiber detector and the photon detector is used. Thus, the statistical error of the polarization measurement is reduced by about 40 percent in the preliminary result. They are the significant progress in measuring a degree of polarization of the electron beam.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bis heute ist die Frage nicht geklärt, warum bei der Entstehung des Universums Materie gegenüber der Antimaterie bevorzugt war und das heutige Materieuniversum entstanden ist. Eine Voraussetzung für die Entstehung dieser Materie-Antimaterie-Asymmetrie ist die Verletzung der Kombination von Ladungs- (C) und Punktsymmetrie (P), die CP-Verletzung. CP-Verletzung kann sich unter anderem in den Zerfällen K+- -> pi+- pi0 pi0 zeigen. Die NA48/2"=Kollaboration zeichnete während den Jahren 2003 und 2004 über 200~TB Daten von Zerfällen geladener Kaonen auf. In dieser Arbeit wurde die CP"=verletzende Asymmetrie der Zerfälle K+- -> pi+- pi0 pi0 mit über 90~Millionen ausgewählten Ereignissen aus diesem Datensatz gemessen. Vorhersagen im Standardmodell der Teilchenphysik sagen hier eine CP"=verletzende Asymmetrie in der Größenordnung zwischen $10^{-6}$ und $10^{-5}$ voraus. In Modellen außerhalb des Standardmodells kann es aber auch größere Asymmetrien geben. Das NA48/2"=Experiment war darauf ausgelegt, mögliche systematische Unsicherheiten zu begrenzen. Um dies zu erreichen, wurden positive und negative Kaonen simultan an einem Target erzeugt und ihr Impuls durch ein Strahlsystem mit zwei Strahlengängen auf ca. $60~GeV/c$ begrenzt. Die Strahlen wurden auf wenige Millimeter genau überlagert in die Zerfallsregion geleitet. Die Strahlengänge von positiven und negativen Kaonen sowie die Polarität des Magneten des Impulsspektrometers wurden regelmäßig gewechselt. Dies erlaubte eine Symmetrisierung von Strahlführung und Detektor für positive und negative Kaonen während der Analyse. Durch ein Vierfachverhältnis der vier Datensätze mit den unterschiedlichen Konfigurationen konnte sichergestellt werden, dass alle durch Strahlführung oder Detektor erzeugten Asymmetrien sich in erster Ordnung aufheben. Um die unterschiedlichen Produktionsspektren von positiven und negativen Kaonen auszugleichen wurde in dieser Arbeit eine Ereignisgewichtung durchgeführt. Die Analyse wurde auf mögliche systematische Unsicherheiten untersucht. Dabei zeigte sich, dass die systematischen Unsicherheiten in der Analyse deutlich kleiner als der statistischer Fehler sind. Das Ergebnis der Messung des die CP-verletzende Asymmetrie beschreibenden Parameters $A_g$ ist: begin{equation} A_g= (1,2 pm 1,7_{mathrm{(stat)}} pm 0,7_{mathrm{(sys)}}) cdot 10^{-4}. end{equation} Diese Messung ist fast zehnmal genauer als bisherige Messungen und stimmt innerhalb ihrer Unsicherheit mit dem Standardmodell überein. Modelle, die eine größere CP-Verletzung in diesem Zerfall vorhersagen, können ausgeschlossen werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The only nuclear model independent method for the determination of nuclear charge radii of short-lived radioactive isotopes is the measurement of the isotope shift. For light elements (Z < 10) extremely high accuracy in experiment and theory is required and was only reached for He and Li so far. The nuclear charge radii of the lightest elements are of great interest because they have isotopes which exhibit so-called halo nuclei. Those nuclei are characterized by a a very exotic nuclear structure: They have a compact core and an area of less dense nuclear matter that extends far from this core. Examples for halo nuclei are 6^He, 8^He, 11^Li and 11^Be that is investigated in this thesis. Furthermore these isotopes are of interest because up to now only for such systems with a few nucleons the nuclear structure can be calculated ab-initio. In the Institut für Kernchemie at the Johannes Gutenberg-Universität Mainz two approaches with different accuracy were developed. The goal of these approaches was the measurement of the isotope shifts between (7,10,11)^Be^+ and 9^Be^+ in the D1 line. The …first approach is laser spectroscopy on laser cooled Be^+ ions that are trapped in a linear Paul trap. The accessible accuracy should be in the order of some 100 kHz. In this thesis two types of linear Paul traps were developed for this purpose. Moreover, the peripheral experimental setup was simulated and constructed. It allows the efficient deceleration of fast ions with an initial energy of 60 keV down to some eV and an effcient transport into the ion trap. For one of the Paul traps the ion trapping could already be demonstrated, while the optical detection of captured 9^Be^+ ions could not be completed, because the development work was delayed by the second approach. The second approach uses the technique of collinear laser spectroscopy that was already applied in the last 30 years for measuring isotope shifts of plenty of heavier isotopes. For light elements (Z < 10), it was so far not possible to reach the accuracy that is required to extract information about nuclear charge radii. The combination of collinear laser spectroscopy with the most modern methods of frequency metrology …finally permitted the …first-time determination of the nuclear charge radii of (7,10)^Be and the one neutron halo nucleus 11^Be at the COLLAPS experiment at ISOLDE/ CERN. In the course of the work reported in this thesis it was possible to measure the absolute transition frequencies and the isotope shifts in the D1 line for the Be isotopes mentioned above with an accuracy of better than 2 MHz. Combination with the most recent calculations of the mass effect allowed the extraction of the nuclear charge radii of (7,10,11)^Be with an relative accuracy better than 1%. The nuclear charge radius decreases from 7^Be continuously to 10^Be and increases again for 11^Be. This result is compared with predictions of ab-initio nuclear models which reproduce the observed trend. Particularly the "Greens Function Monte Carlo" and the "Fermionic Molecular Dynamic" model show very good agreement.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis provides efficient and robust algorithms for the computation of the intersection curve between a torus and a simple surface (e.g. a plane, a natural quadric or another torus), based on algebraic and numeric methods. The algebraic part includes the classification of the topological type of the intersection curve and the detection of degenerate situations like embedded conic sections and singularities. Moreover, reference points for each connected intersection curve component are determined. The required computations are realised efficiently by solving quartic polynomials at most and exactly by using exact arithmetic. The numeric part includes algorithms for the tracing of each intersection curve component, starting from the previously computed reference points. Using interval arithmetic, accidental incorrectness like jumping between branches or the skipping of parts are prevented. Furthermore, the environments of singularities are correctly treated. Our algorithms are complete in the sense that any kind of input can be handled including degenerate and singular configurations. They are verified, since the results are topologically correct and approximate the real intersection curve up to any arbitrary given error bound. The algorithms are robust, since no human intervention is required and they are efficient in the way that the treatment of algebraic equations of high degree is avoided.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Penningfallen-Massenspektrometer SHIPTRAP wurde gebaut um HochprÄazi-rnsionsmassenmessungen an schweren Radionukliden durchzufÄuhren, die in Fusions-rnreaktionen produziert und vom Geschwindigkeitsfilter SHIP vom Primärstrahl sepa-rnriert werden. Es besteht aus einer Gaszelle zur Abbremsung der hochenergetis-rnchen Reaktionsprodukte, einem RFQ-Kühler und Buncher zur Kühlung und Akku-rnmulation der Ionen und einem Doppel-Penningfallen-System um Massenmessungenrndurchzuführen. Die Masse wird durch die Messungen der Zyklotronfrequenz desrnentsprechenden Ions in einem starken homogenen Magnetfeld bestimmt. Diese Fre-rnquenz wird mit der Frequenz eines wohlbekannten Referenzions verglichen. Mitrndieser Methode können relative Fehler in der Größenordnung von 10^-8 erreicht werden. Kürzlich konnten die Massen der Nobeliumisotope 252-254No (Z=102) und desrnLawrenciumisotops 255Lr (Z=103) erstmals erfolgreich gemessen werden. Dies warenrndie ersten direkten Massenmessungen an Transuranen. Die Produktionrate dieserrnAtome lag bei etwa eins pro Sekunde und weniger. Die Ergebnisse der Massenmes-rnsungen an Nobelium bestätigen die früheren Massenwerte, die aus Q_alpha-Messungenrnabgeleitet wurden. Im Fall von 255Lr wurde der Massenexzess, der bis dahin nur ausrnsystematischen Trends abgeschätzt wurde, zum ersten Mal direkt bestimmt. DiesernErgebnisse sind ein erster Schritt für die an SHIPTRAP geplante Erforschung derrnRegion der Transurane. Das Hauptziel ist hierbei die Bestimmung der Endpunkternder alpha-Zerfallsketten, die in superschweren Elementen in der Nähe der vorhergesagtenrnStabilitätsinsel ihren Ursprung nehmen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden experimentelle Untersuchungen zu gepfropften Polymerfilmen durchgeführt. Dabei wurden endgepfropfte poly-methyl-methacrylate (PMMA) Bürsten hergestellt durch „grafting from“ Methoden und polystyrol (PS)/ poly-vinyl-methyl-ether (PVME) Polymerfilme gepfropft auf UV sensitiven Oberflächen untersucht. Zur Strukturuntersuchung wurden die hergestellten Systeme wurden mit Rasterkraftmikroskopie (engl.: Surface Probe Microscopy, SPM), Röntgen - und Neutronenreflektivitätsmessungen, sowie mit Röntgenstreuung unter streifenden Einfall (engl.: Grazing Incidence Small Angle X-Ray Scattering, GISAXS) untersucht. rnEs wurde gezeigt, dass ein aus der Transmissionsstreuung bekanntes Model auch für auch für die GISAXS Analyse polydisperser Polymerdomänen und Kolloidsysteme verwendet werden kann. Der maximale Fehler durch die gemachten Näherungen wurde auf < 20% abgeschätzt.rnErgebnisse aus der Strukturanalyse wurden mit mechanischen Filmeigenschaften verknüpft. Dazu wurden mechanische Spannungsexperimente durchgeführt. Hierzu wurden die zu untersuchenden Filme selektiv auf einzelne Mikro-Federbalken-Sensoren (engl.: Micro Cantilever Sensor, MCS) der MCS Arrays aufgebracht. Dies wurde durch Maskierungstechniken und Mikro-Kontaktdrucken bewerkstelligt. rnPhasenübergansexperimente der gepfropften PS/PVME Filme haben gezeigt, dass die Möglichkeit einer Polymer/Polymer Phasenseparation stark von Propfpunktdichte der gebundenen Polymerketten mit der Oberfläche abhängt. PS/PVME Filmsysteme mit hohen Pfropfpunktdichten zeigten keinen Phasenübergang. Bei niedrig gepfropften Filmsystemen waren hingegen Polymer/Polymer Phasenseparationen zu beobachten. Es wurde geschlussfolgert, dass die gepfropften Polymersysteme einen hinreichenden Grad an entropischen Freiheitsgraden benötigen um eine Phasenseparation zu zeigen. Mechanische Spannungsexperimente haben dabei das Verstehen der Phasenseparationsmechanismen möglich gemacht.rnAus Quellexperimenten dichtgepfropfter PMMA Bürsten, wurden Lösungsmittel-Polymer Wechselwirkungsparameter (-Parameter) bestimmt. Dabei wurde festgestellt, dass sich die erhaltenen Parameter aufgrund von Filmbenetzung und entropischen Effekten maßgeblich von den errechneten Bulkwerten unterscheiden. Weiterhin wurden nicht reversible Kettenverschlaufungseffekt beobachtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The electric dipole response of neutron-rich nickel isotopes has been investigated using the LAND setup at GSI in Darmstadt (Germany). Relativistic secondary beams of 56−57Ni and 67−72Ni at approximately 500 AMeV have been generated using projectile fragmentation of stable ions on a 4 g/cm2 Be target and subsequent separation in the magnetic dipole fields of the FRagment Separator (FRS). After reaching the LAND setup in Cave C, the radioactive ions were excited electromagnetically in the electric field of a Pb target. The decay products have been measured in inverse kinematics using various detectors. Neutron-rich 67−69Ni isotopes decay by the emission of neutrons, which are detected in the LAND detector. The present analysis concentrates on the (gamma,n) and (gamma,2n) channels in these nuclei, since the proton and three-neutron thresholds are unlikely to be reached considering the virtual photon spectrum for nickel ions at 500 AMeV. A measurement of the stable 58Ni isotope is used as a benchmark to check the accuracy of the present results with previously published data. The measured (gamma,n) and (gamma,np) channels are compared with an inclusive photoneutron measurement by Fultz and coworkers, which are consistent within the respective errors. The measured excitation energy distributions of 67−69Ni contain a large portion of the Giant Dipole Resonance (GDR) strength predicted by the Thomas-Reiche-Kuhn energy-weighted sum rule, as well as a significant amount of low-lying E1 strength, that cannot be attributed to the GDR alone. The GDR distribution parameters are calculated using well-established semi-empirical systematic models, providing the peak energies and widths. The GDR strength is extracted from the chi-square minimization of the model GDR to the measured data of the (gamma,2n) channel, thereby excluding any influence of eventual low-lying strength. The subtraction of the obtained GDR distribution from the total measured E1 strength provides the low-lying E1 strength distribution, which is attributed to the Pygmy Dipole Resonance (PDR). The extraction of the peak energy, width and strength is performed using a Gaussian function. The minimization of trial Gaussian distributions to the data does not converge towards a sharp minimum. Therefore, the results are presented by a chi-square distribution as a function of all three Gaussian parameters. Various predictions of PDR distributions exist, as well as a recent measurement of the 68Ni pygmy dipole-resonance obtained by virtual photon scattering, to which the present pygmy dipole-resonance distribution is also compared.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The goal of this thesis was an experimental test of an effective theory of strong interactions at low energy, called Chiral Perturbation Theory (ChPT). Weak decays of kaon mesons provide such a test. In particular, K± → π±γγ decays are interesting because there is no tree-level O(p2) contribution in ChPT, and the leading contributions start at O(p4). At this order, these decays include one undetermined coupling constant, ĉ. Both the branching ratio and the spectrum shape of K± → π±γγ decays are sensitive to this parameter. O(p6) contributions to K± → π±γγ ChPT predict a 30-40% increase in the branching ratio. From the measurement of the branching ratio and spectrum shape of K± → π±γγ decays, it is possible to determine a model dependent value of ĉ and also to examine whether the O(p6) corrections are necessary and enough to explain the rate.About 40% of the data collected in the year 2003 by the NA48/2 experiment have been analyzed and 908 K± → π±γγ candidates with about 8% background contamination have been selected in the region with z = mγγ2/mK2 ≥ 0.2. Using 5,750,121 selected K± → π±π0 decays as normalization channel, a model independent differential branching ratio of K± → π±γγ has been measured to be:BR(K± → π±γγ, z ≥ 0.2) = (1.018 ± 0.038stat ± 0.039syst ± 0.004ext) ∙10-6. From the fit to the O(p6) ChPT prediction of the measured branching ratio and the shape of the z-spectrum, a value of ĉ = 1.54 ± 0.15stat ± 0.18syst has been extracted. Using the measured ĉ value and the O(p6) ChPT prediction, the branching ratio for z =mγγ2/mK2 <0.2 was computed and added to the measured result. The value obtained for the total branching ratio is:BR(K± → π±γγ) = (1.055 ± 0.038stat ± 0.039syst ± 0.004ext + 0.003ĉ -0.002ĉ) ∙10-6, where the last error reflects the uncertainty on ĉ.The branching ratio result presented here agrees with previous experimental results, improving the precision of the measurement by at least a factor of five. The precision on the ĉ measurement has been improved by approximately a factor of three. A slight disagreement with the O(p6) ChPT branching ratio prediction as a function of ĉ has been observed. This mightrnbe due to the possible existence of non-negligible terms not yet included in the theory. Within the scope of this thesis, η-η' mixing effects in O(p4) ChPT have also been measured.