7 resultados para G 0

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

60.00% 60.00%

Publicador:

Resumo:

One of the main goals of the COMPASS experiment at CERN is the determination of the gluon polarisation in the nucleon. It is determined from spin asymmetries in the scattering of 160 GeV/c polarised muons on a polarised LiD target. The gluon polarisation is accessed by the selection of photon-gluon fusion (PGF) events. The PGF-process can be tagged through hadrons with high transverse momenta or through charmed hadrons in the final state. The advantage of the open charm channel is that, in leading order, the PGF-process is the only process for charm production, thus no physical background contributes to the selected data sample. This thesis presents a measurement of the gluon polarisation from the COMPASS data taken in the years 2002-2004. In the analysis, charm production is tagged through a reconstructed D0-meson decaying in $D^{0}-> K^{-}pi^{+}$ (and charge conjugates). The reconstruction is done on a combinatorial basis. The background of wrong track pairs is reduced using kinematic cuts to the reconstructed D0-candidate and the information on particle identification from the Ring Imaging Cerenkov counter. In addition, the event sample is separated into D0-candidates, where a soft pion from the decay of the D*-meson to a D0-meson, is found, and the D0-candidates without this tag. Due to the small mass difference between D*-meson and D0-meson the signal purity of the D*-tagged sample is about 7 times higher than in the untagged sample. The gluon polarisation is measured from the event asymmetries for the for the different spin configurations of the COMPASS target. To improve the statistical precision of the final results, the events in the final sample are weighted. This method results in an average value of the gluon polarisation in the x-range covered by the data. For the COMPASS data from 2002-2004, the resulting value of the gluon polarisation is $g/g>=-0.47+-0.44 (stat)+-0.15(syst.)$. The result is statistically compatible with the existing measurements of $g/g>$ in the high-pT channel. Compared to these, the open charm measurement has the advantage of a considerably smaller model dependence.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Am COMPASS-Experiment am CERN-SPS wird die Spinsstruktur des Nukleons mit Hilfe der Streuung von polarisierten Myonen an polarisierten Nukleonen untersucht. Der in der inklusiven tiefinelastischen Streuung gemessene Beitrag der Quarks zum Nukleonspin reicht nicht aus, um den Spin des Nukleons zu erklären. Daher soll geklärt werden, wie die Gluonpolarisation und die Bahndrehimpulse von Quarks und Gluonen zum Gesamtspin des Nukleons beitragen. Da sich die Gluonpolarisation aus der $Q^{2}$-Abhängigkeit der Asymmetrien in der inklusiven Streuung nur abschätzen lässt, wird eine direkte Messung der Gluonpolarisation benötigt. Die COMPASS-Kollaboration bestimmt daher die Wirkungsquerschnittsasymmetrien für Photon-Gluon-Fusionprozesse, indem sie zum einen die offene Charmproduktion und zum anderen die Produktion von Hadronpaaren mit großen Transversalimpulsen verwendet. In dieser Arbeit wird die Messung der Gluonpolarisation mit den COMPASS-Daten der Jahre 2003 und 2004 vorgestellt. Für die Analyse werden die Ereignisse mit großem Impulsübertrag ($Q^{2}>1$ $GeV^{2}/c^{2}$) und mit Hadronpaaren mit großem Transversalimpuls ($p_{perp}>0.7$ $GeV/c$) verwendet. Die Photon-Nukleon-Asymmetrie wurde aus dem gewichteten Doppelverhältnis der selektierten Ereignisse bestimmt. Der Schnitt auf $p_{perp}>0.7$rn$GeV/c$ unterdrückt die Prozesse führender Ordnung und QCD-Compton Prozesse, so dass die Asymmetrie direkt mit der Gluonpolarisation über die Analysierstärke verknüpft ist. Der gemessene Wert ist sehr klein und verträglich mit einer verschwindenden Gluonpolarisation. Zur Vermeidung von falschen Asymmetrien aufgrund der Änderung der Detektorakzeptanz wurden Doppelverhältnisse untersucht, bei denen sich der Wirkungsquerschnitt aufhebt und nur die Detektorasymmetrien übrig bleiben. Es konnte gezeigt werden, dass das COMPASS-Spektrometer keine signifikante Zeitabhängigkeit aufweist. Für die Berechnung der Analysierstärke wurden Monte Carlo Ereignisse mit Hilfe des LEPTO-Generators und des COMGeant Software Paketes erzeugt. Dabei ist eine gute Beschreibung der Daten durch das Monte Carlo sehr wichtig. Dafür wurden zur Verbesserung der Beschreibung JETSET Parameter optimiert. Es ergab sich ein Wert von rn$frac{Delta G}{G}=0.054pm0.145_{(stat)}pm0.131_{(sys)}pm0.04_{(MC)}$ bei einem mittleren Impulsbruchteil von $langle x_{gluon}rangle=0.1$ und $langle Q^{2}rangle=1.9$ $GeV^{2}/c^{2}$. Dieses Ergebnis deutet auf eine sehr kleine Gluonpolarisation hin und steht im Einklang mit den Ergebnissen anderer Methoden, wie offene Charmproduktion und mit den Ergebnissen, die am doppelt polarisierten RHIC Collider am BNL erzielt wurden.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

The development of extratropical cyclones can be seen as an interplay of three positive potential vorticity (PV) anomalies: an upper-level stratospheric intrusion, low-tropospheric diabatically produced PV, and a warm anomaly at the surface acting as a surrogate PV anomaly. In the mature stage they become vertically aligned and form a “PV tower” associated with strong cyclonic circulation. This paradigm of extratropical cyclone development provides the basis of this thesis, which will use a climatological dataset and numerical model experiments to investigate the amplitude of the three anomalies and the processes leading in particular to the formation of the diabatically produced low-tropospheric PV anomaly.rnrnThe first part of this study, based on the interim ECMWF Re-Analysis (ERA-Interim) dataset, quantifies the amplitude of the three PV anomalies in mature extratropical cyclones in different regions in the Northern Hemisphere on a climatological basis. A tracking algorithm is applied to sea level pressure (SLP) fields to identify cyclone tracks. Surface potential temperature anomalies ∆θ and vertical profiles of PV anomalies ∆PV are calculated at the time of the cyclones’ minimum SLP and during the intensification phase 24 hours before in a vertical cylinder with a radius of 200 km around the surface cyclone center. To compare the characteristics of the cyclones, they are grouped according to their location (8 regions) and intensity, where the central SLP is used as a measure of intensity. Composites of ∆PV profiles and ∆θ are calculated for each region and intensity class at the time of minimum SLP and during the cyclone intensification phase.rnrnDuring the cyclones’ development stage the amplitudes of all three anomalies increase on average. In the mature stage all three anomalies are typically larger for intense than for weak winter cyclones [e.g., 0.6 versus 0.2 potential vorticity units (PVU) at lower levels, and 1.5 versus 0.5 PVU at upper levels].rnThe regional variability of the cyclones’ vertical structure and the profile evolution is prominent (cyclones in some regions are more sensitive to the amplitude of a particular anomaly than in other regions). Values of ∆θ and low-level ∆PV are on average larger in the western parts of the oceans than in the eastern parts. In addition, a large seasonal variability can be identified, with fewer and weaker cyclones especially in the summer, associated with higher low-tropospheric PV values, but also with a higher tropopause and much weaker surface potential temperature anomalies (compared to winter cyclones).rnrnIn the second part, we were interested in the diabatic low-level part of PV towers. Evaporative sources were identified of moisture that was involved in PV production through condensation. Lagrangian backward trajectories were calculated from the region with high PV values at low-levels in the cyclones. PV production regions were identified along these trajectories and from these regions a new set of backward trajectories was calculated and moisture uptakes were traced along them. The main contribution from surface evaporation to the specific humidity of the trajectories is collected 12-72 hours prior to therntime of PV production. The uptake region for weaker cyclones with less PV in the centre is typically more localized with reduced uptake values compared to intense cyclones. However, in a qualitative sense uptakes and other variables along single trajectories do not vary much between cyclones of different intensity in different regions.rnrnA sensitivity study with the COSMO model comprises the last part of this work. The study aims at investigating the influence of synthetic moisture modification in the cyclone environment in different stages of its development. Moisture was eliminated in three regions, which were identified as important moisture source regions for PV production. Moisture suppression affected the cyclone the most in its early phase. It led to cyclolysis shortly after its genesis. Nevertheles, a new cyclone formed on the other side of a dry box and developed relatively quickly. Also in other experiments, moisture elimination led to strong intensity reduction of the surface cyclone, limited upper-level development, and delayed or missing interaction between the two.rnrnIn summary, this thesis provides novel insight into the structure of different intensity categories of extratropical cyclones from a PV perspective, which corroborates the findings from a series of previous case studies. It reveals that all three PV anomalies are typically enhanced for more intense cyclones, with important regional differences concerning the relative amplitude of the three anomalies. The moisture source analysis is the first of this kind to study the evaporation-condensation cycle related to the intensification of extratropical cyclones. Interestingly, most of the evaporation occurs during the 3 days prior to the time of maximum cyclone intensity and typically extends over fairly large areas along the track of the cyclone. The numerical model case study complements this analysis by analyzing the impact of regionally confined moisture sources for the evolution of the cyclone.

Relevância:

60.00% 60.00%

Publicador:

Resumo:

Die Flachwassergleichungen (SWE) sind ein hyperbolisches System von Bilanzgleichungen, die adäquate Approximationen an groß-skalige Strömungen der Ozeane, Flüsse und der Atmosphäre liefern. Dabei werden Masse und Impuls erhalten. Wir unterscheiden zwei charakteristische Geschwindigkeiten: die Advektionsgeschwindigkeit, d.h. die Geschwindigkeit des Massentransports, und die Geschwindigkeit von Schwerewellen, d.h. die Geschwindigkeit der Oberflächenwellen, die Energie und Impuls tragen. Die Froude-Zahl ist eine Kennzahl und ist durch das Verhältnis der Referenzadvektionsgeschwindigkeit zu der Referenzgeschwindigkeit der Schwerewellen gegeben. Für die oben genannten Anwendungen ist sie typischerweise sehr klein, z.B. 0.01. Zeit-explizite Finite-Volume-Verfahren werden am öftersten zur numerischen Berechnung hyperbolischer Bilanzgleichungen benutzt. Daher muss die CFL-Stabilitätsbedingung eingehalten werden und das Zeitinkrement ist ungefähr proportional zu der Froude-Zahl. Deswegen entsteht bei kleinen Froude-Zahlen, etwa kleiner als 0.2, ein hoher Rechenaufwand. Ferner sind die numerischen Lösungen dissipativ. Es ist allgemein bekannt, dass die Lösungen der SWE gegen die Lösungen der Seegleichungen/ Froude-Zahl Null SWE für Froude-Zahl gegen Null konvergieren, falls adäquate Bedingungen erfüllt sind. In diesem Grenzwertprozess ändern die Gleichungen ihren Typ von hyperbolisch zu hyperbolisch.-elliptisch. Ferner kann bei kleinen Froude-Zahlen die Konvergenzordnung sinken oder das numerische Verfahren zusammenbrechen. Insbesondere wurde bei zeit-expliziten Verfahren falsches asymptotisches Verhalten (bzgl. der Froude-Zahl) beobachtet, das diese Effekte verursachen könnte.Ozeanographische und atmosphärische Strömungen sind typischerweise kleine Störungen eines unterliegenden Equilibriumzustandes. Wir möchten, dass numerische Verfahren für Bilanzgleichungen gewisse Equilibriumzustände exakt erhalten, sonst können künstliche Strömungen vom Verfahren erzeugt werden. Daher ist die Quelltermapproximation essentiell. Numerische Verfahren die Equilibriumzustände erhalten heißen ausbalanciert.rnrnIn der vorliegenden Arbeit spalten wir die SWE in einen steifen, linearen und einen nicht-steifen Teil, um die starke Einschränkung der Zeitschritte durch die CFL-Bedingung zu umgehen. Der steife Teil wird implizit und der nicht-steife explizit approximiert. Dazu verwenden wir IMEX (implicit-explicit) Runge-Kutta und IMEX Mehrschritt-Zeitdiskretisierungen. Die Raumdiskretisierung erfolgt mittels der Finite-Volumen-Methode. Der steife Teil wird mit Hilfe von finiter Differenzen oder au eine acht mehrdimensional Art und Weise approximniert. Zur mehrdimensionalen Approximation verwenden wir approximative Evolutionsoperatoren, die alle unendlich viele Informationsausbreitungsrichtungen berücksichtigen. Die expliziten Terme werden mit gewöhnlichen numerischen Flüssen approximiert. Daher erhalten wir eine Stabilitätsbedingung analog zu einer rein advektiven Strömung, d.h. das Zeitinkrement vergrößert um den Faktor Kehrwert der Froude-Zahl. Die in dieser Arbeit hergeleiteten Verfahren sind asymptotisch erhaltend und ausbalanciert. Die asymptotischer Erhaltung stellt sicher, dass numerische Lösung das "korrekte" asymptotische Verhalten bezüglich kleiner Froude-Zahlen besitzt. Wir präsentieren Verfahren erster und zweiter Ordnung. Numerische Resultate bestätigen die Konvergenzordnung, so wie Stabilität, Ausbalanciertheit und die asymptotische Erhaltung. Insbesondere beobachten wir bei machen Verfahren, dass die Konvergenzordnung fast unabhängig von der Froude-Zahl ist.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

In der Überprüfung von Kernmodellen stellt der elektrische Formfaktor des Neutrons Gen eine wichtige Eingangsgröße dar. Im Rahmen dieser Arbeit wurde am polarisierten Elektronenstrahl des Mainzer Mikrotrons MAMI der elektrische Formfaktor des Neutrons in der Reaktion 3He(e,e'n) bestimmt. Aus dem Verhältnis der Asymmetrien respektive der Helizitätsumkehr der Elektronenpolarisation mit Targetspin senkrecht und parallel zum Impulsübertrag konnte in einer integralen Analyse Gen bestimmt werden. Zusammengefasst ergab sich Gen(Q2=0.67 (GeV/c)2) = 0.0468 +- 0.0064(stat} +- 0.0027(syst}. Um den Einfluß von Kernbindungseffekten, die z. Zt. von der Gruppe um Prof. Glöckle in Bochum theoretisch gerechnet werden, auch experimentell abzusichern, wurden parallel zur Gen-Messung die Targetasymmetrie Ay0 3He(e,e'n) und Protonenasymmetrie 3He(e,e'p) bestimmt. Die Empfindlichkeit dieser Observablen auf FSI und D-Wellenbeiträge schafft Redundanzen, aus denen auf die Eigenschaften des freien Neutrons im gebundenen System geschlossen werden kann.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Ein wesentliches Ziel des COMPASS Experiments am CERN istdie direkte Messung der Gluonpolarisation in derinelastischen Streuung von polarisierten 160 GeV Myonen aneinem polarisierten Nukleon Target. In der inelastischenLepton-Nukleon-Streuung erlaubt der sog.Photon-Gluon-Fusions-Prozess (PGF) die Untersuchung derGluonverteilung.Im Rahmen der vorliegenden Arbeit wurde ein Triggersystementwickelt und aufgebaut, das gezielt PGF-Reaktionenselektiert. Das System basiert auf demkoinzidenten Nachweis der gestreuten Myonen zusammen mit denproduzierten Hadronen und generiert innerhalb 600 ns einhochselektives Triggersignal. Der Wirkungsquerschnitt derPGF wird von Ereignissen mit quasi-reellen Photonendominiert, d.h. der Myonstreuwinkel ist kein geeignetesKriterium um die gestreuten Myonen von den Strahlmyonen zutrennen, deshalb muss der Energieverlust des Myons verwendetwerden. Der sog. Energieverlusttrigger besteht aus Paarenvon Plastikszintillatorhodoskopen mit exzellenter Zeitaufloesung, die zusammen mit einer selbstentwickeltenschnellen Koinzidenzelektronik eine Koinzidenzzeit vonweniger als 3ns möglich macht. Fuer den gleichzeitigenNachweis der Hadronen wurden die beiden Hadronkalorimeterdes COMPASS--Spektrometers mit einer eigens entwickeltenElektronik versehen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The quark condensate is a fundamental free parameter of Chiral Perturbation Theory ($chi PT$), since it determines the relative size of the mass and momentum terms in the power expansion. In order to confirm or contradict the assumption of a large quark condensate, on which $chi PT$ is based, experimental tests are needed. In particular, the $S$-wave $pipi$ scattering lengths $a_0^0$ and $a_0^2$ can be predicted precisely within $chi PT$ as a function of this parameter and can be measured very cleanly in the decay $K^{pm} to pi^{+} pi^{-} e^{pm} stackrel{mbox{tiny(---)}}{nu_e}$ ($K_{e4}$). About one third of the data collected in 2003 and 2004 by the NA48/2 experiment were analysed and 342,859 $K_{e4}$ candidates were selected. The background contamination in the sample could be reduced down to 0.3% and it could be estimated directly from the data, by selecting events with the same signature as $K_{e4}$, but requiring for the electron the opposite charge with respect to the kaon, the so-called ``wrong sign'' events. This is a clean background sample, since the kaon decay with $Delta S=-Delta Q$, that would be the only source of signal, can only take place through two weak decays and is therefore strongly suppressed. The Cabibbo-Maksymowicz variables, used to describe the kinematics of the decay, were computed under the assumption of a fixed kaon momentum of 60 GeV/$c$ along the $z$ axis, so that the neutrino momentum could be obtained without ambiguity. The measurement of the form factors and of the $pipi$ scattering length $a_0^0$ was performed in a single step by comparing the five-dimensional distributions of data and MC in the kinematic variables. The MC distributions were corrected in order to properly take into account the trigger and selection efficiencies of the data and the background contamination. The following parameter values were obtained from a binned maximum likelihood fit, where $a_0^2$ was expressed as a function of $a_0^0$ according to the prediction of chiral perturbation theory: f'_s/f_s = 0.133+- 0.013(stat)+- 0.026(syst) f''_s/f_s = -0.041+- 0.013(stat)+- 0.020(syst) f_e/f_s = 0.221+- 0.051(stat)+- 0.105(syst) f'_e/f_s = -0.459+- 0.170(stat)+- 0.316(syst) tilde{f_p}/f_s = -0.112+- 0.013(stat)+- 0.023(syst) g_p/f_s = 0.892+- 0.012(stat)+- 0.025(syst) g'_p/f_s = 0.114+- 0.015(stat)+- 0.022(syst) h_p/f_s = -0.380+- 0.028(stat)+- 0.050(syst) a_0^0 = 0.246+- 0.009(stat)+- 0.012(syst)}+- 0.002(theor), where the statistical uncertainty only includes the effect of the data statistics and the theoretical uncertainty is due to the width of the allowed band for $a_0^2$.