49 resultados para SUPERSYMMETRIC STANDARD MODEL

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The beta-decay of free neutrons is a strongly over-determined process in the Standard Model (SM) of Particle Physics and is described by a multitude of observables. Some of those observables are sensitive to physics beyond the SM. For example, the correlation coefficients of the involved particles belong to them. The spectrometer aSPECT was designed to measure precisely the shape of the proton energy spectrum and to extract from it the electron anti-neutrino angular correlation coefficient "a". A first test period (2005/ 2006) showed the “proof-of-principles”. The limiting influence of uncontrollable background conditions in the spectrometer made it impossible to extract a reliable value for the coefficient "a" (publication: Baessler et al., 2008, Europhys. Journ. A, 38, p.17-26). A second measurement cycle (2007/ 2008) aimed to under-run the relative accuracy of previous experiments (Stratowa et al. (1978), Byrne et al. (2002)) da/a =5%. I performed the analysis of the data taken there which is the emphasis of this doctoral thesis. A central point are background studies. The systematic impact of background on a was reduced to da/a(syst.)=0.61 %. The statistical accuracy of the analyzed measurements is da/a(stat.)=1.4 %. Besides, saturation effects of the detector electronics were investigated which were initially observed. These turned out not to be correctable on a sufficient level. An applicable idea how to avoid the saturation effects will be discussed in the last chapter.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis we investigate the phenomenology of supersymmetric particles at hadron colliders beyond next-to-leading order (NLO) in perturbation theory. We discuss the foundations of Soft-Collinear Effective Theory (SCET) and, in particular, we explicitly construct the SCET Lagrangian for QCD. As an example, we discuss factorization and resummation for the Drell-Yan process in SCET. We use techniques from SCET to improve existing calculations of the production cross sections for slepton-pair production and top-squark-pair production at hadron colliders. As a first application, we implement soft-gluon resummation at next-to-next-to-next-to-leading logarithmic order (NNNLL) for slepton-pair production in the minimal supersymmetric extension of the Standard Model (MSSM). This approach resums large logarithmic corrections arising from the dynamical enhancement of the partonic threshold region caused by steeply falling parton luminosities. We evaluate the resummed invariant-mass distribution and total cross section for slepton-pair production at the Tevatron and LHC and we match these results, in the threshold region, onto NLO fixed-order calculations. As a second application we present the most precise predictions available for top-squark-pair production total cross sections at the LHC. These results are based on approximate NNLO formulas in fixed-order perturbation theory, which completely determine the coefficients multiplying the singular plus distributions. The analysis of the threshold region is carried out in pair invariant mass (PIM) kinematics and in single-particle inclusive (1PI) kinematics. We then match our results in the threshold region onto the exact fixed-order NLO results and perform a detailed numerical analysis of the total cross section.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Im Jahr 2011 wurde am Large Hadron Collider mit dem ATLAS Experiment ein Datensatz von 4.7 inversen Femtobarn bei einer Schwerpunktsenergie von 7 TeV aufgezeichnet. Teil des umfangreichen Physikprogrammes des ATLAS Experiments ist die Suche nach Physik jenseits des Standardmodells. Supersymmetrie - eine neue Symmetrie zwischen Bosonen und Fermionen - wird als aussichtsreichester Kandidat für neue Physik angesehen, und zahlreiche direkte und indirekte Suchen nach Supersymmetrie wurden in den letzten Jahrzehnten bereits durchgeführt. In der folgenden Arbeit wird eine direkte Suche nach Supersymmetrie in Endzuständen mit Jets, fehlender Transversalenergie und genau einem Elektron oder Myon durchgeführt. Der analysierte Datensatz von 4.7 inversen Femtobarn umfasst die gesamte Datenmenge, welche am ATLAS Experiment bei einer Schwerpunktsenergie von 7 TeV aufgezeichnet wurde. Die Ergebnisse der Analyse werden mit verschiedenen anderen leptonischen Suchkanälen kombiniert, um die Sensitivität auf diversen supersymmetrischen Produktions- und Zerfallsmodi zu maximieren. Die gemessenen Daten sind kompatibel mit der Standardmodellerwartung, und neue Ausschlussgrenzen in verschiedenen supersymmetrischen Modellen werden berechnet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Über viele Jahre hinweg wurden wieder und wieder Argumente angeführt, die diskreten Räumen gegenüber kontinuierlichen Räumen eine fundamentalere Rolle zusprechen. Unser Zugangzur diskreten Welt wird durch neuere Überlegungen der Nichtkommutativen Geometrie (NKG) bestimmt. Seit ca. 15Jahren gibt es Anstrengungen und auch Fortschritte, Physikmit Hilfe von Nichtkommutativer Geometrie besser zuverstehen. Nur eine von vielen Möglichkeiten ist dieReformulierung des Standardmodells derElementarteilchenphysik. Unter anderem gelingt es, auch denHiggs-Mechanismus geometrisch zu beschreiben. Das Higgs-Feld wird in der NKG in Form eines Zusammenhangs auf einer zweielementigen Menge beschrieben. In der Arbeit werden verschiedene Ziele erreicht:Quantisierung einer nulldimensionalen ,,Raum-Zeit'', konsistente Diskretisierungf'ur Modelle im nichtkommutativen Rahmen.Yang-Mills-Theorien auf einem Punkt mit deformiertemHiggs-Potenzial. Erweiterung auf eine ,,echte''Zwei-Punkte-Raum-Zeit, Abzählen von Feynman-Graphen in einer nulldimensionalen Theorie, Feynman-Regeln. Eine besondere Rolle werden Termini, die in derQuantenfeldtheorie ihren Ursprung haben, gewidmet. In diesemRahmen werden Begriffe frei von Komplikationen diskutiert,die durch etwaige Divergenzen oder Schwierigkeitentechnischer Natur verursacht werden könnten.Eichfixierungen, Geistbeiträge, Slavnov-Taylor-Identität undRenormierung. Iteratives Lösungsverfahren derDyson-Schwinger-Gleichung mit Computeralgebra-Unterstützung,die Renormierungsprozedur berücksichtigt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Das Standardmodell der Elementarteilchenphysik istexperimentell hervorragend bestätigt, hat auf theoretischerSeite jedoch unbefriedigende Aspekte: Zum einen wird derHiggssektor der Theorie von Hand eingefügt, und zum anderenunterscheiden sich die Beschreibung des beobachtetenTeilchenspektrums und der Gravitationfundamental. Diese beiden Nachteile verschwinden, wenn mandas Standardmodell in der Sprache der NichtkommutativenGeometrie formuliert. Ziel hierbei ist es, die Raumzeit der physikalischen Theoriedurch algebraische Daten zu erfassen. Beispielsweise stecktdie volle Information über eine RiemannscheSpinmannigfaltigkeit M in dem Datensatz (A,H,D), den manspektrales Tripel nennt. A ist hierbei die kommutativeAlgebra der differenzierbaren Funktionen auf M, H ist derHilbertraum der quadratintegrablen Spinoren über M und D istder Diracoperator. Mit Hilfe eines solchen Tripels (zu einer nichtkommutativenAlgebra) lassen sich nun sowohl Gravitation als auch dasStandardmodell mit mathematisch ein und demselben Mittelerfassen. In der vorliegenden Arbeit werden nulldimensionale spektraleTripel (die diskreten Raumzeiten entsprechen) zunächstklassifiziert und in Beispielen wird eine Quantisierungsolcher Objekte durchgeführt. Ein Problem der spektralenTripel stellt ihre Beschränkung auf echt RiemannscheMetriken dar. Zu diesem Problem werden Lösungsansätzepräsentiert. Im abschließenden Kapitel der Arbeit wird dersogenannte 'Feynman-Beweis der Maxwellgleichungen' aufnichtkommutative Konfigurationsräume verallgemeinert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Dissertation wird der seltene Zerfall K_L->emu imRahmen eines verallgemeinerten Standardmodells detailliertstudiert. In diesem Prozess bleibt die zu einer gegebenen Familie gehoerende Leptonenzahl nicht erhalten. Deswegenwerden unsere Untersuchungen im Rahmen der SU(2)_L x U(1)_Y-und SU(2)_R x SU(2)_L x U(1)_{B-L}-Modelle mit schwerenMajorana-Neutrinos ausgefuehrt. Die wichtigsten Ergebnisse dieser Arbeit betreffen dieBerechnung des Verzweigungsverhaeltnisses fuer den ZerfallK_L->emu. Im SU(2)_L x U(1)_Y-Modell mit schwerenMajorana-Neutrinos wird eine deutliche Steigerung desVerzweigungsverhaeltnisses gefunden, jedoch liegen dieerhaltenen Ergebnisse um einige Groessenordnungen unter derjetzigen experimentellen Grenze. Benutzt man das gewaehlte,auf der SU(2)_R x SU(2)_L x U(1)_{B-L}$-Eichgruppebasierende Modell mit Links-Rechts-Symmetrie, dann erhoehtdie Anwesenheit der links- und rechtshaendigen Stroeme inden Schleifendiagrammen deutlich den Wert desVerzweigungsverhaeltnisses. Dadurch koennen sich Werte inder Naehe der aktuellen experimentellen Grenze vonB(K_L->emu) < 4.7 x 10^{-12} ergeben. Um unsere Ergebnisse zu untermauern, wird die Frage derEichinvarianz bei diesem Zerfallsprozess auf demEin-Schleifen-Niveau mit besonderer Aufmerksamkeitbehandelt. Ein sogenanntes ,,on-shell skeleton``Renormierungsschema wird benutzt, um die erste vollstaendigeAnalyse der Eichinvarianz fuer den Prozess K_L->emuauszufuehren.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden Daten aus Proton-Antiproton-Kollisionen analysiert, die im Zeitraum von April 2002 bis März 2004 mit dem DO-Detektor bei einer Schwerpunktsenergie von sqrt(s) = 1.96 TeV am Tevatron-Beschleuniger am Fermi National Accelerator Laboratory aufgezeichnet wurden. Je nach Analyse entsprechen die verwendeten Datensätze integrierten Luminositäten von 158-252 pb^-1. Die Ereignisse wurden auf die Existenz von Higgs-Bosonen und Charginos und Neutralinos untersucht. Außerdem wurde eine Messung des Wirkungsquerschnittes der Paarproduktion von W-Bosonen durchgeführt. Für die Suchen nach Higgs-Bosonen wurden leptonische Endzustände mit zwei Elektronen bzw. einem Elektron und einem Myon untersucht, wie sie bei Zerfällen von Higgs-Bosonen über zwei W-Bosonen erwartet werden. Wegen des momentan zur Verfügung stehenden geringen Datensatzes ist nur möglich, die Daten auf die Existenz von Higgs-Bosonen zu untersuchen, wie sie innerhalb alternativer Modelle vorhergesagt werden. Aufgrund größerer Produktionswirkungsquerschnitte werden die Higgs-Bosonen mit erhöhter Rate erzeugt und werden somit schon bei niedrigen integrierten Luminositäten zugänglich. Bei der durchgeführten Analyse wurde eine gute Übereinstimmung der beobachteten Ereignisse mit der Erwartung aus Prozessen des Standardmodells gefunden. Da keine Evidenz für die Existenz von Higgs-Bosonen beobachtet wurde, wurden die Ergebnisse verwendet, um mit einem Vertrauensniveau von 95% eine obere Grenze auf den Produktionswirkungsquerschnitt multipliziert mit dem Verzweigungsverhältnis anzugeben. Durch eine Kombination der ee-, emu- und mumu-Endzustände erhält man eine obere Grenze zwischen 5.7 und 40.3 pb im Higgs-Massenbereich von 100-200 GeV. Die Ergebnisse zeigen, daß auch der hier verwendete Datensatz noch zu klein ist, um auch Higgs-Bosonen im Rahmen der alternativen Modelle zu entdecken bzw. auszuschließen. Um die assoziierte Produktion von Charginos und Neutralinos nachzuweisen, wurden ebenfalls Endzustände mit einem Elektron und einem Myon untersucht. Zur Verbesserung der Sensitivität wurde eine Kombination mit Analysen in ee- und mumu-Endzuständen durchgeführt. Da auch hier eine gute Konsistenz mit der Erwartung der Untergrundprozesse innerhalb des Standardmodells gefunden wurde, wurden ebenso obere Grenzen auf den Produktionswirkungsquerschnitt multipliziert mit dem Verzweigungsverhältnis gesetzt. Die Ergebnisse werden im Rahmen des mSUGRA-Modells interpretiert. Es ergeben sich obere Grenzen zwischen 0.46 und 0.63 pb für Charginomassen im Bereich von 97 GeV bis 114 GeV. Dies stellt eine deutliche Verbesserung der bei früheren Messungen bei DO erhaltenen Ausschlußgrenzen dar. Allerdings ist es wiederum aufgrund des geringen Datensatzes nicht möglich, Punkte im mSUGRA-Parameterraum oberhalb der bei LEP gefundenen Grenzen auszuschließen. Die Ergebnisse können auch verwendet werden, um allgemeinere SUSY-Modelle einzuschränken, die ebenfalls entsprechende Beziehungen zwischen den Chargino- und Neutralino-Massen erfüllen. Den Hauptuntergrund bei diesen Suchen stellt die Paarproduktion von W-Bosonen dar. Es wurde zum ersten Mal im Rahmen des DO-Experimentes eine Messung des Wirkungsquerschnittes der W-Paarproduktion mit einer Signifikanz von mehr als 3 sigma durchgeführt. Es wird eine gute Übereinstimmung mit der Next-to-leading-order-Vorhersage der Theorie gefunden. Kombiniert man die ee-, emu- und mumu-Endzustände, ergibt sich ein Wirkungsquerschnitt von sigma(WW) = 13.35+4.65-3.99(stat) +0.77-1.05(syst) +-0.87(Lum) pb.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Eine wichtige Komponente des Standardmodells der Teilchenphysik bildet der Higgs-Mechanismus, der benötigt wird um den vom Standardmodell beschriebenen Teilchen Masse zu verleihen. Dieser Mechanismus beinhaltet jedoch ein weiteres schweres Elementarteilchen das bislang noch nich beobachtet werden konnte. Die Suche nach diesem Teilchen ist eines Hauptziele der derzeitigen Forschung an Teilchenbeschleunigern. Diese Arbeit untersucht die vom D0-Detektor am Tevatron des Fermi National Accelerator Laboratory (FNAL) aufgezeichneten Daten von ppbar-Kollisionen bei einer Schwerpunktsenergie von sqrt{s}=1.96 TeV, um im Kanal WH -> enu bb nach einem leichten Higgs-Boson zu suchen. Darüber hinaus wird der Produktionswirkungsquerschnitt der Wbb-Produktion ermittelt. Für die Analyse stand eine integrierte Luminosität von L=255pb^{-1} zur Verfügung. Zur Selektion dieser Prozesse, werden Ereignisse ausgewählt, die Elektronen und fehlenden Transversalimpuls enthalten, sowie mindestens zwei Jets, die sich als b-Jets identifizieren lassen. Um eine effiziente Selektion zu erhalten, wurden Schnitte auf verschiedene Kenngrößen entwickelt, getestet und optimiert. Aus den selektierten Ereignissen wird der Wbb-Wirkungsquerschnitt ermittelt, der für Ereignisse angegeben wird, in denen die b-Quarks p_T>8 GeV und |eta|<3 erfüllen. Der unter Berücksichtigung des Verzweigungsverhältnisses BR(W->enu)=0.108 errechnete Wert ist sigma(Wbb)=21.8 pb (+15.5; -20.0 pb(sys+stat)). Wegen der geringen Signifikanz der Messung von etwa 1.2sigma wurden die Ereigniszahlen auch zur Berechnung einer oberen Grenze auf den Wirkungsquerschnitt verwendet, die sich bei einem Konfidenzniveau von 95% zu sigma^95(Wbb)=60.9pb ergibt. Ebenso wurden Grenzen auf den WH-Produktionswirkungsquerschnitt ermittelt. Dafür wurde die statistische Methode von Feldman und Cousins angewandt, nachdem sie nach den Vorschlägen von Conrad et al. erweitert worden war, um systematische Unsicherheiten zu berücksichtigen. Für ein Standardmodell Higgs-Boson der Masse 115 GeV kann eine obere Grenze auf den Produktionswirkungsquerschnitt von sigma^{95} (WH)=12.2pb angegeben werden. Für höhere Massen bis 135 GeV werden ähnliche Grenzen ermittelt.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit werden die QCD-Strahlungskorrekturen in erster Ordnung der starken Kopplungskonstanten für verschiedene Polarisationsobservablen zu semileptonischen Zerfällen eines bottom-Quarks in ein charm-Quark und ein Leptonpaar berechnet. Im ersten Teil wird der Zerfall eines unpolarisierten b-Quarks in ein polarisiertes c-Quark sowie ein geladenes Lepton und ein Antineutrino im Ruhesystem des b-Quarks analysiert. Es werden die Strahlungskorrekturen für den unpolarisierten und den polarisierten Beitrag zur differentiellen Zerfallsrate nach der Energie des c-Quarks berechnet, wobei das geladene Lepton als leicht angesehen und seine Masse daher vernachlässigt wird. Die inklusive differentielle Rate wird durch zwei Strukturfunktionen in analytischer Form dargestellt. Anschließend werden die Strukturfunktionen und die Polarisation des c-Quarks numerisch ausgewertet. Nach der Einführung der Helizitäts-Projektoren befaßt sich der zweite Teil mit dem kaskadenartigen Zerfall eines polarisierten b-Quarks in ein unpolarisiertes c-Quark und ein virtuelles W-Boson, welches weiter in ein Paar leichter Leptonen zerfällt. Es werden die inklusiven Strahlungskorrekturen zu drei unpolarisierten und fünf polarisierten Helizitäts-Strukturfunktionen in analytischer Form berechnet, welche die Winkelverteilung für die differentielle Zerfallsrate nach dem Viererimpulsquadrat des W-Bosons beschreiben. Die Strukturfunktionen enthalten die Informationen sowohl über die polare Winkelverteilung zwischen dem Spinvektor des b-Quarks und dem Impulsvektor des W-Bosons als auch über die räumliche Winkelverteilung zwischen den Impulsen des W-Bosons und des Leptonpaars. Der Impuls und der Spinvektor des b-Quarks sowie der Impuls des W-Bosons werden im b-Ruhesystem analysiert, während die Impulse des Leptonpaars im W-Ruhesystem ausgewertet werden. Zusätzlich zu den genannten Strukturfunktionen werden noch die unpolarisierte und die polarisierte skalare Strukturfunktion angegeben, die in Anwendungen bei hadronischen Zerfällen eine Rolle spielen. Anschließend folgt eine numerische Auswertung aller berechneten Strukturfunktionen. Im dritten Teil werden die nichtperturbativen HQET-Korrekturen zu inklusiven semileptonischen Zerfällen schwerer Hadronen diskutiert, welche ein b-Quark enthalten. Sie beschreiben hadronische Korrekturen, die durch die feste Bindung des b-Quarks in Hadronen hervorgerufen werden. Es werden insgesamt fünf unpolarisierte und neun polarisierte Helizitäts-Strukturfunktionen in analytischer Form angegeben, die auch eine endliche Masse und den Spin des geladenen Leptons berücksichtigen. Die Strukturfunktionen werden sowohl in differentieller Form in Abhängigkeit des quadrierten Viererimpulses des W-Bosons als auch in integrierter Form präsentiert. Zum Schluß werden die zuvor erhaltenen Resultate auf die semi-inklusiven hadronischen Zerfälle eines polarisierten Lambda_b-Baryons oder eines B-Mesons in ein D_s- oder ein D_s^*-Meson unter Berücksichtigung der D_s^*-Polarisation angewandt. Für die zugehörigen Winkelverteilungen werden die inklusiven QCD- und die nichtperturbativen HQET-Korrekturen zu den Helizitäts-Strukturfunktionen in analytischer Form angegeben und anschließend numerisch ausgewertet.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Es gibt kaum eine präzisere Beschreibung der Natur als die durch das Standardmodell der Elementarteilchen (SM). Es ist in der Lage bis auf wenige Ausnahmen, die Physik der Materie- und Austauschfelder zu beschreiben. Dennoch ist man interessiert an einer umfassenderen Theorie, die beispielsweise auch die Gravitation mit einbezieht, Neutrinooszillationen beschreibt, und die darüber hinaus auch weitere offene Fragen klärt. Um dieser Theorie ein Stück näher zu kommen, befasst sich die vorliegende Arbeit mit einem effektiven Potenzreihenansatz zur Beschreibung der Physik des Standardmodells und neuer Phänomene. Mit Hilfe eines Massenparameters und einem Satz neuer Kopplungskonstanten wird die Neue Physik parametrisiert. In niedrigster Ordnung erhält man das bekannte SM, Terme höherer Ordnung in der Kopplungskonstanten beschreiben die Effekte jenseits des SMs. Aus gewissen Symmetrie-Anforderungen heraus ergibt sich eine definierte Anzahl von effektiven Operatoren mit Massendimension sechs, die den hier vorgestellten Rechnungen zugrunde liegen. Wir berechnen zunächst für eine bestimmte Auswahl von Prozessen zugehörige Zerfallsbreiten bzw. Wirkungsquerschnitte in einem Modell, welches das SM um einen einzigen neuen effektiven Operator erweitertet. Unter der Annahme, dass der zusätzliche Beitrag zur Observablen innerhalb des experimentellen Messfehlers ist, geben wir anhand von vorliegenden experimentellen Ergebnissen aus leptonischen und semileptonischen Präzisionsmessungen Ausschlussgrenzen der neuen Kopplungen in Abhängigkeit von dem Massenparameter an. Die hier angeführten Resultate versetzen Physiker zum Einen in die Lage zu beurteilen, bei welchen gemessenen Observablen eine Erhöhung der Präzision sinnvoll ist, um bessere Ausschlussgrenzen angeben zu können. Zum anderen erhält man einen Anhaltspunkt, welche Prozesse im Hinblick auf Entdeckungen Neuer Physik interessant sind.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In this thesis I concentrate on the angular correlations in top quark decays and their next--to--leading order (NLO) QCD corrections. I also discuss the leading--order (LO) angular correlations in unpolarized and polarized hyperon decays. In the first part of the thesis I calculate the angular correlation between the top quark spin and the momentum of decay products in the rest frame decay of a polarized top quark into a charged Higgs boson and a bottom quark in Two-Higgs-Doublet-Models: $t(uparrow)rightarrow b+H^{+}$. The decay rate in this process is split into an angular independent part (unpolarized) and an angular dependent part (polar correlation). I provide closed form formulae for the ${mathcal O}(alpha_{s})$ radiative corrections to the unpolarized and the polar correlation functions for $m_{b}neq 0$ and $m_{b}=0$. The results for the unpolarized rate agree with the existing results in the literature. The results for the polarized correlations are new. I found that, for certain values of $tanbeta$, the ${mathcal O}(alpha_s)$ radiative corrections to the unpolarized, polarized rates, and the asymmetry parameter can become quite large. In the second part I concentrate on the semileptonic rest frame decay of a polarized top quark into a bottom quark and a lepton pair: $t(uparrow) to X_b + ell^+ + nu_ell$. I analyze the angular correlations between the top quark spin and the momenta of the decay products in two different helicity coordinate systems: system 1a with the $z$--axis along the charged lepton momentum, and system 3a with the $z$--axis along the neutrino momentum. The decay rate then splits into an angular independent part (unpolarized), a polar angle dependent part (polar correlation) and an azimuthal angle dependent part (azimuthal correlation). I present closed form expressions for the ${mathcal O}(alpha_{s})$ radiative corrections to the unpolarized part and the polar and azimuthal correlations in system 1a and 3a for $m_{b}neq 0$ and $m_{b}=0$. For the unpolarized part and the polar correlation I agree with existing results. My results for the azimuthal correlations are new. In system 1a I found that the azimuthal correlation vanishes in the leading order as a consequence of the $(V-A)$ nature of the Standard Model current. The ${mathcal O}(alpha_{s})$ radiative corrections to the azimuthal correlation in system 1a are very small (around 0.24% relative to the unpolarized LO rate). In system 3a the azimuthal correlation does not vanish at LO. The ${mathcal O}(alpha_{s})$ radiative corrections decreases the LO azimuthal asymmetry by around 1%. In the last part I turn to the angular distribution in semileptonic hyperon decays. Using the helicity method I derive complete formulas for the leading order joint angular decay distributions occurring in semileptonic hyperon decays including lepton mass and polarization effects. Compared to the traditional covariant calculation the helicity method allows one to organize the calculation of the angular decay distributions in a very compact and efficient way. This is demonstrated by the specific example of the polarized hyperon decay $Xi^0(uparrow) to Sigma^+ + l^- + bar{nu}_l$ ,($l^-=e^-, mu^-$) followed by the nonleptonic decay $Sigma^+ to p + pi^0$, which is described by a five--fold angular decay distribution.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Precision measurements of phenomena related to fermion mixing require the inclusion of higher order corrections in the calculation of corresponding theoretical predictions. For this, a complete renormalization scheme for models that allow for fermion mixing is highly required. The correct treatment of unstable particles makes this task difficult and yet, no satisfactory and general solution can be found in the literature. In the present work, we study the renormalization of the fermion Lagrange density with Dirac and Majorana particles in models that involve mixing. The first part of the thesis provides a general renormalization prescription for the Lagrangian, while the second one is an application to specific models. In a general framework, using the on-shell renormalization scheme, we identify the physical mass and the decay width of a fermion from its full propagator. The so-called wave function renormalization constants are determined such that the subtracted propagator is diagonal on-shell. As a consequence of absorptive parts in the self-energy, the constants that are supposed to renormalize the incoming fermion and the outgoing antifermion are different from the ones that should renormalize the outgoing fermion and the incoming antifermion and not related by hermiticity, as desired. Instead of defining field renormalization constants identical to the wave function renormalization ones, we differentiate the two by a set of finite constants. Using the additional freedom offered by this finite difference, we investigate the possibility of defining field renormalization constants related by hermiticity. We show that for Dirac fermions, unless the model has very special features, the hermiticity condition leads to ill-defined matrix elements due to self-energy corrections of external legs. In the case of Majorana fermions, the constraints for the model are less restrictive. Here one might have a better chance to define field renormalization constants related by hermiticity. After analysing the complete renormalized Lagrangian in a general theory including vector and scalar bosons with arbitrary renormalizable interactions, we consider two specific models: quark mixing in the electroweak Standard Model and mixing of Majorana neutrinos in the seesaw mechanism. A counter term for fermion mixing matrices can not be fixed by only taking into account self-energy corrections or fermion field renormalization constants. The presence of unstable particles in the theory can lead to a non-unitary renormalized mixing matrix or to a gauge parameter dependence in its counter term. Therefore, we propose to determine the mixing matrix counter term by fixing the complete correction terms for a physical process to experimental measurements. As an example, we calculate the decay rate of a top quark and of a heavy neutrino. We provide in each of the chosen models sample calculations that can be easily extended to other theories.