49 resultados para Standard model contributions

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The beta-decay of free neutrons is a strongly over-determined process in the Standard Model (SM) of Particle Physics and is described by a multitude of observables. Some of those observables are sensitive to physics beyond the SM. For example, the correlation coefficients of the involved particles belong to them. The spectrometer aSPECT was designed to measure precisely the shape of the proton energy spectrum and to extract from it the electron anti-neutrino angular correlation coefficient "a". A first test period (2005/ 2006) showed the “proof-of-principles”. The limiting influence of uncontrollable background conditions in the spectrometer made it impossible to extract a reliable value for the coefficient "a" (publication: Baessler et al., 2008, Europhys. Journ. A, 38, p.17-26). A second measurement cycle (2007/ 2008) aimed to under-run the relative accuracy of previous experiments (Stratowa et al. (1978), Byrne et al. (2002)) da/a =5%. I performed the analysis of the data taken there which is the emphasis of this doctoral thesis. A central point are background studies. The systematic impact of background on a was reduced to da/a(syst.)=0.61 %. The statistical accuracy of the analyzed measurements is da/a(stat.)=1.4 %. Besides, saturation effects of the detector electronics were investigated which were initially observed. These turned out not to be correctable on a sufficient level. An applicable idea how to avoid the saturation effects will be discussed in the last chapter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of the fundamental interactions in the Standard Model of particle physicsrnis the strong force, which can be formulated as a non-abelian gauge theoryrncalled Quantum Chromodynamics (QCD). rnIn the low-energy regime, where the QCD coupling becomes strong and quarksrnand gluons are confined to hadrons, a perturbativernexpansion in the coupling constant is not possible.rnHowever, the introduction of a four-dimensional Euclidean space-timernlattice allows for an textit{ab initio} treatment of QCD and provides arnpowerful tool to study the low-energy dynamics of hadrons.rnSome hadronic matrix elements of interest receive contributionsrnfrom diagrams including quark-disconnected loops, i.e. disconnected quarkrnlines from one lattice point back to the same point. The calculation of suchrnquark loops is computationally very demanding, because it requires knowledge ofrnthe all-to-all propagator. In this thesis we use stochastic sources and arnhopping parameter expansion to estimate such propagators.rnWe apply this technique to study two problems which relay crucially on therncalculation of quark-disconnected diagrams, namely the scalar form factor ofrnthe pion and the hadronic vacuum polarization contribution to the anomalousrnmagnet moment of the muon.rnThe scalar form factor of the pion describes the coupling of a charged pion torna scalar particle. We calculate the connected and the disconnected contributionrnto the scalar form factor for three different momentum transfers. The scalarrnradius of the pion is extracted from the momentum dependence of the form factor.rnThe use ofrnseveral different pion masses and lattice spacings allows for an extrapolationrnto the physical point. The chiral extrapolation is done using chiralrnperturbation theory ($chi$PT). We find that our pion mass dependence of thernscalar radius is consistent with $chi$PT at next-to-leading order.rnAdditionally, we are able to extract the low energy constant $ell_4$ from thernextrapolation, and ourrnresult is in agreement with results from other lattice determinations.rnFurthermore, our result for the scalar pion radius at the physical point isrnconsistent with a value that was extracted from $pipi$-scattering data. rnThe hadronic vacuum polarization (HVP) is the leading-order hadronicrncontribution to the anomalous magnetic moment $a_mu$ of the muon. The HVP canrnbe estimated from the correlation of two vector currents in the time-momentumrnrepresentation. We explicitly calculate the corresponding disconnectedrncontribution to the vector correlator. We find that the disconnectedrncontribution is consistent with zero within its statistical errors. This resultrncan be converted into an upper limit for the maximum contribution of therndisconnected diagram to $a_mu$ by using the expected time-dependence of therncorrelator and comparing it to the corresponding connected contribution. Wernfind the disconnected contribution to be smaller than $approx5%$ of thernconnected one. This value can be used as an estimate for a systematic errorrnthat arises from neglecting the disconnected contribution.rn

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden Daten aus Proton-Antiproton-Kollisionen analysiert, die im Zeitraum von April 2002 bis März 2004 mit dem DO-Detektor bei einer Schwerpunktsenergie von sqrt(s) = 1.96 TeV am Tevatron-Beschleuniger am Fermi National Accelerator Laboratory aufgezeichnet wurden. Je nach Analyse entsprechen die verwendeten Datensätze integrierten Luminositäten von 158-252 pb^-1. Die Ereignisse wurden auf die Existenz von Higgs-Bosonen und Charginos und Neutralinos untersucht. Außerdem wurde eine Messung des Wirkungsquerschnittes der Paarproduktion von W-Bosonen durchgeführt. Für die Suchen nach Higgs-Bosonen wurden leptonische Endzustände mit zwei Elektronen bzw. einem Elektron und einem Myon untersucht, wie sie bei Zerfällen von Higgs-Bosonen über zwei W-Bosonen erwartet werden. Wegen des momentan zur Verfügung stehenden geringen Datensatzes ist nur möglich, die Daten auf die Existenz von Higgs-Bosonen zu untersuchen, wie sie innerhalb alternativer Modelle vorhergesagt werden. Aufgrund größerer Produktionswirkungsquerschnitte werden die Higgs-Bosonen mit erhöhter Rate erzeugt und werden somit schon bei niedrigen integrierten Luminositäten zugänglich. Bei der durchgeführten Analyse wurde eine gute Übereinstimmung der beobachteten Ereignisse mit der Erwartung aus Prozessen des Standardmodells gefunden. Da keine Evidenz für die Existenz von Higgs-Bosonen beobachtet wurde, wurden die Ergebnisse verwendet, um mit einem Vertrauensniveau von 95% eine obere Grenze auf den Produktionswirkungsquerschnitt multipliziert mit dem Verzweigungsverhältnis anzugeben. Durch eine Kombination der ee-, emu- und mumu-Endzustände erhält man eine obere Grenze zwischen 5.7 und 40.3 pb im Higgs-Massenbereich von 100-200 GeV. Die Ergebnisse zeigen, daß auch der hier verwendete Datensatz noch zu klein ist, um auch Higgs-Bosonen im Rahmen der alternativen Modelle zu entdecken bzw. auszuschließen. Um die assoziierte Produktion von Charginos und Neutralinos nachzuweisen, wurden ebenfalls Endzustände mit einem Elektron und einem Myon untersucht. Zur Verbesserung der Sensitivität wurde eine Kombination mit Analysen in ee- und mumu-Endzuständen durchgeführt. Da auch hier eine gute Konsistenz mit der Erwartung der Untergrundprozesse innerhalb des Standardmodells gefunden wurde, wurden ebenso obere Grenzen auf den Produktionswirkungsquerschnitt multipliziert mit dem Verzweigungsverhältnis gesetzt. Die Ergebnisse werden im Rahmen des mSUGRA-Modells interpretiert. Es ergeben sich obere Grenzen zwischen 0.46 und 0.63 pb für Charginomassen im Bereich von 97 GeV bis 114 GeV. Dies stellt eine deutliche Verbesserung der bei früheren Messungen bei DO erhaltenen Ausschlußgrenzen dar. Allerdings ist es wiederum aufgrund des geringen Datensatzes nicht möglich, Punkte im mSUGRA-Parameterraum oberhalb der bei LEP gefundenen Grenzen auszuschließen. Die Ergebnisse können auch verwendet werden, um allgemeinere SUSY-Modelle einzuschränken, die ebenfalls entsprechende Beziehungen zwischen den Chargino- und Neutralino-Massen erfüllen. Den Hauptuntergrund bei diesen Suchen stellt die Paarproduktion von W-Bosonen dar. Es wurde zum ersten Mal im Rahmen des DO-Experimentes eine Messung des Wirkungsquerschnittes der W-Paarproduktion mit einer Signifikanz von mehr als 3 sigma durchgeführt. Es wird eine gute Übereinstimmung mit der Next-to-leading-order-Vorhersage der Theorie gefunden. Kombiniert man die ee-, emu- und mumu-Endzustände, ergibt sich ein Wirkungsquerschnitt von sigma(WW) = 13.35+4.65-3.99(stat) +0.77-1.05(syst) +-0.87(Lum) pb.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In dieser Arbeit werden die QCD-Strahlungskorrekturen in erster Ordnung der starken Kopplungskonstanten für verschiedene Polarisationsobservablen zu semileptonischen Zerfällen eines bottom-Quarks in ein charm-Quark und ein Leptonpaar berechnet. Im ersten Teil wird der Zerfall eines unpolarisierten b-Quarks in ein polarisiertes c-Quark sowie ein geladenes Lepton und ein Antineutrino im Ruhesystem des b-Quarks analysiert. Es werden die Strahlungskorrekturen für den unpolarisierten und den polarisierten Beitrag zur differentiellen Zerfallsrate nach der Energie des c-Quarks berechnet, wobei das geladene Lepton als leicht angesehen und seine Masse daher vernachlässigt wird. Die inklusive differentielle Rate wird durch zwei Strukturfunktionen in analytischer Form dargestellt. Anschließend werden die Strukturfunktionen und die Polarisation des c-Quarks numerisch ausgewertet. Nach der Einführung der Helizitäts-Projektoren befaßt sich der zweite Teil mit dem kaskadenartigen Zerfall eines polarisierten b-Quarks in ein unpolarisiertes c-Quark und ein virtuelles W-Boson, welches weiter in ein Paar leichter Leptonen zerfällt. Es werden die inklusiven Strahlungskorrekturen zu drei unpolarisierten und fünf polarisierten Helizitäts-Strukturfunktionen in analytischer Form berechnet, welche die Winkelverteilung für die differentielle Zerfallsrate nach dem Viererimpulsquadrat des W-Bosons beschreiben. Die Strukturfunktionen enthalten die Informationen sowohl über die polare Winkelverteilung zwischen dem Spinvektor des b-Quarks und dem Impulsvektor des W-Bosons als auch über die räumliche Winkelverteilung zwischen den Impulsen des W-Bosons und des Leptonpaars. Der Impuls und der Spinvektor des b-Quarks sowie der Impuls des W-Bosons werden im b-Ruhesystem analysiert, während die Impulse des Leptonpaars im W-Ruhesystem ausgewertet werden. Zusätzlich zu den genannten Strukturfunktionen werden noch die unpolarisierte und die polarisierte skalare Strukturfunktion angegeben, die in Anwendungen bei hadronischen Zerfällen eine Rolle spielen. Anschließend folgt eine numerische Auswertung aller berechneten Strukturfunktionen. Im dritten Teil werden die nichtperturbativen HQET-Korrekturen zu inklusiven semileptonischen Zerfällen schwerer Hadronen diskutiert, welche ein b-Quark enthalten. Sie beschreiben hadronische Korrekturen, die durch die feste Bindung des b-Quarks in Hadronen hervorgerufen werden. Es werden insgesamt fünf unpolarisierte und neun polarisierte Helizitäts-Strukturfunktionen in analytischer Form angegeben, die auch eine endliche Masse und den Spin des geladenen Leptons berücksichtigen. Die Strukturfunktionen werden sowohl in differentieller Form in Abhängigkeit des quadrierten Viererimpulses des W-Bosons als auch in integrierter Form präsentiert. Zum Schluß werden die zuvor erhaltenen Resultate auf die semi-inklusiven hadronischen Zerfälle eines polarisierten Lambda_b-Baryons oder eines B-Mesons in ein D_s- oder ein D_s^*-Meson unter Berücksichtigung der D_s^*-Polarisation angewandt. Für die zugehörigen Winkelverteilungen werden die inklusiven QCD- und die nichtperturbativen HQET-Korrekturen zu den Helizitäts-Strukturfunktionen in analytischer Form angegeben und anschließend numerisch ausgewertet.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The lattice formulation of Quantum ChromoDynamics (QCD) has become a reliable tool providing an ab initio calculation of low-energy quantities. Despite numerous successes, systematic uncertainties, such as discretisation effects, finite-size effects, and contaminations from excited states, are inherent in any lattice calculation. Simulations with controlled systematic uncertainties and close to the physical pion mass have become state-of-the-art. We present such a calculation for various hadronic matrix elements using non-perturbatively O(a)-improved Wilson fermions with two dynamical light quark flavours. The main topics covered in this thesis are the axial charge of the nucleon, the electro-magnetic form factors of the nucleon, and the leading hadronic contributions to the anomalous magnetic moment of the muon. Lattice simulations typically tend to underestimate the axial charge of the nucleon by 5 − 10%. We show that including excited state contaminations using the summed operator insertion method leads to agreement with the experimentally determined value. Further studies of systematic uncertainties reveal only small discretisation effects. For the electro-magnetic form factors of the nucleon, we see a similar contamination from excited states as for the axial charge. The electro-magnetic radii, extracted from a dipole fit to the momentum dependence of the form factors, show no indication of finite-size or cutoff effects. If we include excited states using the summed operator insertion method, we achieve better agreement with the radii from phenomenology. The anomalous magnetic moment of the muon can be measured and predicted to very high precision. The theoretical prediction of the anomalous magnetic moment receives contribution from strong, weak, and electro-magnetic interactions, where the hadronic contributions dominate the uncertainties. A persistent 3σ tension between the experimental determination and the theoretical calculation is found, which is considered to be an indication for physics beyond the Standard Model. We present a calculation of the connected part of the hadronic vacuum polarisation using lattice QCD. Partially twisted boundary conditions lead to a significant improvement of the vacuum polarisation in the region of small momentum transfer, which is crucial in the extraction of the hadronic vacuum polarisation.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The Standard Model of particle physics is a very successful theory which describes nearly all known processes of particle physics very precisely. Nevertheless, there are several observations which cannot be explained within the existing theory. In this thesis, two analyses with high energy electrons and positrons using data of the ATLAS detector are presented. One, probing the Standard Model of particle physics and another searching for phenomena beyond the Standard Model.rnThe production of an electron-positron pair via the Drell-Yan process leads to a very clean signature in the detector with low background contributions. This allows for a very precise measurement of the cross-section and can be used as a precision test of perturbative quantum chromodynamics (pQCD) where this process has been calculated at next-to-next-to-leading order (NNLO). The invariant mass spectrum mee is sensitive to parton distribution functions (PFDs), in particular to the poorly known distribution of antiquarks at large momentum fraction (Bjoerken x). The measurementrnof the high-mass Drell-Yan cross-section in proton-proton collisions at a center-of-mass energy of sqrt(s) = 7 TeV is performed on a dataset collected with the ATLAS detector, corresponding to an integrated luminosity of 4.7 fb-1. The differential cross-section of pp -> Z/gamma + X -> e+e- + X is measured as a function of the invariant mass in the range 116 GeV < mee < 1500 GeV. The background is estimated using a data driven method and Monte Carlo simulations. The final cross-section is corrected for detector effects and different levels of final state radiation corrections. A comparison isrnmade to various event generators and to predictions of pQCD calculations at NNLO. A good agreement within the uncertainties between measured cross-sections and Standard Model predictions is observed.rnExamples of observed phenomena which can not be explained by the Standard Model are the amount of dark matter in the universe and neutrino oscillations. To explain these phenomena several extensions of the Standard Model are proposed, some of them leading to new processes with a high multiplicity of electrons and/or positrons in the final state. A model independent search in multi-object final states, with objects defined as electrons and positrons, is performed to search for these phenomenas. Therndataset collected at a center-of-mass energy of sqrt(s) = 8 TeV, corresponding to an integrated luminosity of 20.3 fb-1 is used. The events are separated in different categories using the object multiplicity. The data-driven background method, already used for the cross-section measurement was developed further for up to five objects to get an estimation of the number of events including fake contributions. Within the uncertainties the comparison between data and Standard Model predictions shows no significant deviations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

The future goal of modern physics is the discovery of physics beyond the Standard Model. One of the most significant hints for New Physics can be seen in the anomalous magnetic moment of the muon - one of the most precise measured variables in modern physics and the main motivation of this work. This variable is associated with the coupling of the muon, an elementary particle, to an external electromagnetic field and is defined as a = (g - 2)/2, whereas g is the gyromagnetic factor of the muon. The muon anomaly has been measured with a relative accuracy of 0.5·10-6. However, a difference between the direct measurement and the Standard Model prediction of 3.6 standard deviations can be observed. This could be a hint for the existence of New Physics. Unfortunately, it is, yet, not significant enough to claim an observation and, thus, more precise measurements and calculations have to be performed.rnThe muon anomaly has three contributions, whereas the ones from quantum electrodynamics and weak interaction can be determined from perturbative calculations. This cannot be done in case of the hadronic contributions at low energies. The leading order contribution - the hadronic vacuum polarization - can be computed via a dispersion integral, which needs as input hadronic cross section measurements from electron-positron annihilations. Hence, it is essential for a precise prediction of the muon anomaly to measure these hadronic cross sections, σ(e+e-→hadrons), with high accuracy. With a contribution of more than 70%, the final state containing two charged pions is the most important one in this context.rnIn this thesis, a new measurement of the σ(e+e-→π+π-) cross section and the pion form factor is performed with an accuracy of 0.9% in the dominant ρ(770) resonance region between 600 and rn900 MeV at the BESIII experiment. The two-pion contribution to the leading-order (LO) hadronic vacuum polarization contribution to (g - 2) from the BESIII result, obtained in this work, is computed to be a(ππ,LO,600-900 MeV) = (368.2±2.5stat±3.3sys)·10-10. With the result presented in this thesis, we make an important contribution on the way to solve the (g - 2) puzzle.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Standardmodell der Elementarteilchenphysik istexperimentell hervorragend bestätigt, hat auf theoretischerSeite jedoch unbefriedigende Aspekte: Zum einen wird derHiggssektor der Theorie von Hand eingefügt, und zum anderenunterscheiden sich die Beschreibung des beobachtetenTeilchenspektrums und der Gravitationfundamental. Diese beiden Nachteile verschwinden, wenn mandas Standardmodell in der Sprache der NichtkommutativenGeometrie formuliert. Ziel hierbei ist es, die Raumzeit der physikalischen Theoriedurch algebraische Daten zu erfassen. Beispielsweise stecktdie volle Information über eine RiemannscheSpinmannigfaltigkeit M in dem Datensatz (A,H,D), den manspektrales Tripel nennt. A ist hierbei die kommutativeAlgebra der differenzierbaren Funktionen auf M, H ist derHilbertraum der quadratintegrablen Spinoren über M und D istder Diracoperator. Mit Hilfe eines solchen Tripels (zu einer nichtkommutativenAlgebra) lassen sich nun sowohl Gravitation als auch dasStandardmodell mit mathematisch ein und demselben Mittelerfassen. In der vorliegenden Arbeit werden nulldimensionale spektraleTripel (die diskreten Raumzeiten entsprechen) zunächstklassifiziert und in Beispielen wird eine Quantisierungsolcher Objekte durchgeführt. Ein Problem der spektralenTripel stellt ihre Beschränkung auf echt RiemannscheMetriken dar. Zu diesem Problem werden Lösungsansätzepräsentiert. Im abschließenden Kapitel der Arbeit wird dersogenannte 'Feynman-Beweis der Maxwellgleichungen' aufnichtkommutative Konfigurationsräume verallgemeinert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Dissertation wird der seltene Zerfall K_L->emu imRahmen eines verallgemeinerten Standardmodells detailliertstudiert. In diesem Prozess bleibt die zu einer gegebenen Familie gehoerende Leptonenzahl nicht erhalten. Deswegenwerden unsere Untersuchungen im Rahmen der SU(2)_L x U(1)_Y-und SU(2)_R x SU(2)_L x U(1)_{B-L}-Modelle mit schwerenMajorana-Neutrinos ausgefuehrt. Die wichtigsten Ergebnisse dieser Arbeit betreffen dieBerechnung des Verzweigungsverhaeltnisses fuer den ZerfallK_L->emu. Im SU(2)_L x U(1)_Y-Modell mit schwerenMajorana-Neutrinos wird eine deutliche Steigerung desVerzweigungsverhaeltnisses gefunden, jedoch liegen dieerhaltenen Ergebnisse um einige Groessenordnungen unter derjetzigen experimentellen Grenze. Benutzt man das gewaehlte,auf der SU(2)_R x SU(2)_L x U(1)_{B-L}$-Eichgruppebasierende Modell mit Links-Rechts-Symmetrie, dann erhoehtdie Anwesenheit der links- und rechtshaendigen Stroeme inden Schleifendiagrammen deutlich den Wert desVerzweigungsverhaeltnisses. Dadurch koennen sich Werte inder Naehe der aktuellen experimentellen Grenze vonB(K_L->emu) < 4.7 x 10^{-12} ergeben. Um unsere Ergebnisse zu untermauern, wird die Frage derEichinvarianz bei diesem Zerfallsprozess auf demEin-Schleifen-Niveau mit besonderer Aufmerksamkeitbehandelt. Ein sogenanntes ,,on-shell skeleton``Renormierungsschema wird benutzt, um die erste vollstaendigeAnalyse der Eichinvarianz fuer den Prozess K_L->emuauszufuehren.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Eine wichtige Komponente des Standardmodells der Teilchenphysik bildet der Higgs-Mechanismus, der benötigt wird um den vom Standardmodell beschriebenen Teilchen Masse zu verleihen. Dieser Mechanismus beinhaltet jedoch ein weiteres schweres Elementarteilchen das bislang noch nich beobachtet werden konnte. Die Suche nach diesem Teilchen ist eines Hauptziele der derzeitigen Forschung an Teilchenbeschleunigern. Diese Arbeit untersucht die vom D0-Detektor am Tevatron des Fermi National Accelerator Laboratory (FNAL) aufgezeichneten Daten von ppbar-Kollisionen bei einer Schwerpunktsenergie von sqrt{s}=1.96 TeV, um im Kanal WH -> enu bb nach einem leichten Higgs-Boson zu suchen. Darüber hinaus wird der Produktionswirkungsquerschnitt der Wbb-Produktion ermittelt. Für die Analyse stand eine integrierte Luminosität von L=255pb^{-1} zur Verfügung. Zur Selektion dieser Prozesse, werden Ereignisse ausgewählt, die Elektronen und fehlenden Transversalimpuls enthalten, sowie mindestens zwei Jets, die sich als b-Jets identifizieren lassen. Um eine effiziente Selektion zu erhalten, wurden Schnitte auf verschiedene Kenngrößen entwickelt, getestet und optimiert. Aus den selektierten Ereignissen wird der Wbb-Wirkungsquerschnitt ermittelt, der für Ereignisse angegeben wird, in denen die b-Quarks p_T>8 GeV und |eta|<3 erfüllen. Der unter Berücksichtigung des Verzweigungsverhältnisses BR(W->enu)=0.108 errechnete Wert ist sigma(Wbb)=21.8 pb (+15.5; -20.0 pb(sys+stat)). Wegen der geringen Signifikanz der Messung von etwa 1.2sigma wurden die Ereigniszahlen auch zur Berechnung einer oberen Grenze auf den Wirkungsquerschnitt verwendet, die sich bei einem Konfidenzniveau von 95% zu sigma^95(Wbb)=60.9pb ergibt. Ebenso wurden Grenzen auf den WH-Produktionswirkungsquerschnitt ermittelt. Dafür wurde die statistische Methode von Feldman und Cousins angewandt, nachdem sie nach den Vorschlägen von Conrad et al. erweitert worden war, um systematische Unsicherheiten zu berücksichtigen. Für ein Standardmodell Higgs-Boson der Masse 115 GeV kann eine obere Grenze auf den Produktionswirkungsquerschnitt von sigma^{95} (WH)=12.2pb angegeben werden. Für höhere Massen bis 135 GeV werden ähnliche Grenzen ermittelt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.