29 resultados para LHC Ê

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zusammenfassung Der Lichtsammlerkomplex (LHCII) aus PhotosystemII hoeherer Pflanzen kann in vitro rekonstituiert werden. Es werden drei Reaktionszeiten (<10 s; <1 min; <10 min) aufgeloest. Dabei werden bei allen Reaktionszeiten Pigmente durch das Apoprotein gebunden. Chlorophylle (Chl a und Chl b) und Xanthophylle wirken limitierend auf die Rekonstitution. Chl a beschleunigt die zweite Reaktionszeit, ein ausgeglichenes Chl a/b-Verhaeltnis verkürzt die dritte Reaktionszeit. Ein molekularer Mechanismus als Interpretation dieser Effekte wird vorgeschlagen. Native Lipide verlaengern nichtspezifisch die Rekonstitution. Abiotische Faktoren haben einen spezifischen Einfluss auf die Rekonstitution. Spezifische Einfluesse der o. a. Bedingungen auf die thermische Stabilitaet des rekonstituierten LHCII wurden bestimmt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit stelle ich Aspekte zu QCD Berechnungen vor, welche eng verknüpft sind mit der numerischen Auswertung von NLO QCD Amplituden, speziell der entsprechenden Einschleifenbeiträge, und der effizienten Berechnung von damit verbundenen Beschleunigerobservablen. Zwei Themen haben sich in der vorliegenden Arbeit dabei herauskristallisiert, welche den Hauptteil der Arbeit konstituieren. Ein großer Teil konzentriert sich dabei auf das gruppentheoretische Verhalten von Einschleifenamplituden in QCD, um einen Weg zu finden die assoziierten Farbfreiheitsgrade korrekt und effizient zu behandeln. Zu diesem Zweck wird eine neue Herangehensweise eingeführt welche benutzt werden kann, um farbgeordnete Einschleifenpartialamplituden mit mehreren Quark-Antiquark Paaren durch Shufflesummation über zyklisch geordnete primitive Einschleifenamplituden auszudrücken. Ein zweiter großer Teil konzentriert sich auf die lokale Subtraktion von zu Divergenzen führenden Poltermen in primitiven Einschleifenamplituden. Hierbei wurde im Speziellen eine Methode entwickelt, um die primitiven Einchleifenamplituden lokal zu renormieren, welche lokale UV Counterterme und effiziente rekursive Routinen benutzt. Zusammen mit geeigneten lokalen soften und kollinearen Subtraktionstermen wird die Subtraktionsmethode dadurch auf den virtuellen Teil in der Berechnung von NLO Observablen erweitert, was die voll numerische Auswertung der Einschleifenintegrale in den virtuellen Beiträgen der NLO Observablen ermöglicht. Die Methode wurde schließlich erfolgreich auf die Berechnung von NLO Jetraten in Elektron-Positron Annihilation im farbführenden Limes angewandt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this thesis the measurement of the effective weak mixing angle wma in proton-proton collisions is described. The results are extracted from the forward-backward asymmetry (AFB) in electron-positron final states at the ATLAS experiment at the LHC. The AFB is defined upon the distribution of the polar angle between the incoming quark and outgoing lepton. The signal process used in this study is the reaction pp to zgamma + X to ee + X taking a total integrated luminosity of 4.8\,fb^(-1) of data into account. The data was recorded at a proton-proton center-of-mass energy of sqrt(s)=7TeV. The weak mixing angle is a central parameter of the electroweak theory of the Standard Model (SM) and relates the neutral current interactions of electromagnetism and weak force. The higher order corrections on wma are related to other SM parameters like the mass of the Higgs boson.rnrnBecause of the symmetric initial state constellation of colliding protons, there is no favoured forward or backward direction in the experimental setup. The reference axis used in the definition of the polar angle is therefore chosen with respect to the longitudinal boost of the electron-positron final state. This leads to events with low absolute rapidity have a higher chance of being assigned to the opposite direction of the reference axis. This effect called dilution is reduced when events at higher rapidities are used. It can be studied including electrons and positrons in the forward regions of the ATLAS calorimeters. Electrons and positrons are further referred to as electrons. To include the electrons from the forward region, the energy calibration for the forward calorimeters had to be redone. This calibration is performed by inter-calibrating the forward electron energy scale using pairs of a central and a forward electron and the previously derived central electron energy calibration. The uncertainty is shown to be dominated by the systematic variations.rnrnThe extraction of wma is performed using chi^2 tests, comparing the measured distribution of AFB in data to a set of template distributions with varied values of wma. The templates are built in a forward folding technique using modified generator level samples and the official fully simulated signal sample with full detector simulation and particle reconstruction and identification. The analysis is performed in two different channels: pairs of central electrons or one central and one forward electron. The results of the two channels are in good agreement and are the first measurements of wma at the Z resonance using electron final states at proton-proton collisions at sqrt(s)=7TeV. The precision of the measurement is already systematically limited mostly by the uncertainties resulting from the knowledge of the parton distribution functions (PDF) and the systematic uncertainties of the energy calibration.rnrnThe extracted results of wma are combined and yield a value of wma_comb = 0.2288 +- 0.0004 (stat.) +- 0.0009 (syst.) = 0.2288 +- 0.0010 (tot.). The measurements are compared to the results of previous measurements at the Z boson resonance. The deviation with respect to the combined result provided by the LEP and SLC experiments is up to 2.7 standard deviations.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der LHCI-730 ist ein heterodimerer, Chlorophyll a/b-bindender Lichtsammelkomplex (LHC) des Photosystem I in höheren Pflanzen. Mit Hilfe rekombinanter, modifizierter Proteine wurde untersucht, welche terminalen Bereiche der Untereinheiten Lhca1 und Lhca4 für die Bildung von monomeren und dimeren Lichtsammelproteinen relevant sind. Durch PCR-Mutagenese modifizierte Apoproteine wurden in vitro mit Gesamtpigmentextrakt rekonstituiert und auf ihre Fähigkeit mono- bzw. dimere LHCs zu bilden untersucht.Für die Monomerbildung sind der extrinsische N-Terminus und die der amphipathischen vierten Helix folgenden Aminosäuren beider Proteine für die Faltung stabiler monomerer Pigmentproteinkomplexe nicht notwendig. Die Aminosäuren, mit deren Deletion die Monomerbildung an N- und C-Terminus verhindert wurde, verfügten über geladene (Glu, Asp), aromatische (Trp) oder neutrale Seitenketten (Leu).Die Untersuchungen zur Dimerbildung des LHCI-730 zeigten, daß am N-Terminus des Lhca1 nur bis zu einer Entfernung von drei Aminosäuren (Trp) eine Assemblierung der Untereinheiten möglich ist. Nur Phe (anstatt Trp) war in Substitutionsexperimenten im Vollängenprotein in der Lage, Dimere zu bilden. Das Ausbleiben der Dimerbildung der bis einschließlich zum Trp-39 und Ile-168 verkürzten Deletionsmutanten des Lhca4 ist vermutlich auf die Instabilität dieser Lhca4-Mutanten zurückzuführen. Die Deletion von Trp-185 am C-Terminus des Lhca1 führt zu einem Ausbleiben der Dimerbildung, die aber offensichtlich durch weitere, zuvor schon deletierte Aminosäuren beeinträchtigt wurde.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Lichtsammelantenne des PSI (LHCI) ist hinsichtlich ihrer Protein- und Pigmentzusammensetzung weniger gut untersucht als die des PSII. Im Rahmen dieser Arbeit wurde deshalb zunächst die Isolation von nativen LHCI-Subkomplexen optimiert und deren Pigmentzusammensetzung untersucht. Zusätzlich wurde die Pigmentbindung analysiert sowie das Pigment/Protein-Verhältnis bestimmt. Die Analyse der Proteinzusammensetzung des LHCI erfolgte mittels einer Kombination aus ein- oder zweidimensionaler Gelelektrophorese mit Westernblotanalysen mit Lhca-Protein-spezifischen Antikörpern und massenspektrometrischen Untersuchungen. Dabei stellte sich heraus, dass der LHCI mehr Proteine bzw. Proteinisoformen enthält als bisher vermutet. So gelang durch die massenspektrometrischen Untersuchungen die Identifizierung zweier bisher noch nicht nachgewiesener Lhca-Proteine. Bei diesen handelt es sich um eine Isoform des Lhca4 und ein zusätzliches Lhca-Protein, das Tomaten-Homolog des Lhca5 von Arabidopsis thaliana. Außerdem wurden in 1D-Gelen Isoformen von Lhca-Proteinen mit unterschiedlichem elektrophoretischen Verhalten beobachtet. In 2D-Gelen trat zusätzlich eine große Anzahl an Isoformen mit unterschiedlichen isoelektrischen Punkten auf. Es ist zu vermuten, dass zumindest ein Teil dieser Isoformen physiologischen Ursprungs ist, und z.B. durch differentielle Prozessierung oder posttranslationale Modifikationen verursacht wird, wenn auch die Spotvielfalt in 2D-Gelen wohl eher auf die Probenaufbereitung zurückzuführen ist. Mittels in vitro-Rekonstitution mit anschließenden biochemischen Untersuchungen und Fluoreszenzmessungen wurde nachgewiesen, dass Lhca5 ein funktioneller LHC mit spezifischen Pigmentbindungseigenschaften ist. Außerdem zeigten in vitro-Dimerisierungsexperimente eine Interaktion zwischen Lhca1 und Lhca5, wodurch dessen Zugehörigkeit zur Antenne des PSI gestützt wird. In vitro-Dimerisierungsexperimente mit Lhca2 und Lhca3 führten dagegen nicht zur Bildung von Dimeren. Dies zeigt, dass die Interaktion in potentiellen Homo- oder Heterodimeren aus Lhca2 und/oder Lhca3 schwächer ist als die zwischen Lhca1 und Lhca4 oder Lhca5. Die beobachtete Proteinheterogenität deutet daraufhin, dass die Antenne des PSI eine komplexere Zusammensetzung hat als bisher angenommen. Für die Integration „neuer“ LHC in den PSI-LHCI-Holokomplex werden zwei Modelle vorgeschlagen: geht man von einer festen Anzahl von LHCI-Monomeren aus, so kann sie durch den Austausch einzelner LHC-Monomere erreicht werden. Als zweites Szenario ist die Bindung zusätzlicher LHC vorstellbar, die entweder indirekt über bereits vorhandene LHC oder direkt über PSI-Kernuntereinheiten mit dem PSI interagieren. In Hinblick auf die Pigmentbindung der nativen LHCI-Subfraktionen konnte gezeigt werden, dass sie Pigmente in einer spezifischen Stöchiometrie und Anzahl binden, und sich vom LHCIIb vor allem durch eine verstärkte Bindung von Chlorophyll a, eine geringere Anzahl von Carotinoiden und die Bindung von ß-Carotin an Stelle von Neoxanthin unterscheiden. Der Vergleich von nativem LHCI mit rekonstituierten Lhca-Proteinen ergab, dass Lhca-Proteine Pigmente in einer spezifischen Stöchiometrie binden, und dass sie Carotinoidbindungsstellen mit flexiblen Bindungseigenschaften besitzen. Auch über die Umwandlung des an die einzelnen Lhca-Proteine gebundenen Violaxanthins (Vio) im Xanthophyllzyklus war nur wenig bekannt. Deshalb wurden mit Hilfe eines in vitro-Deepoxidationssystems sowohl native als auch rekonstituierte LHCI hinsichtlich ihrer Deepoxidationseigenschaften untersucht und der Deepoxidationsgrad von in vivo deepoxidierten Pigment-Protein-Komplexen bestimmt. Aus den Deepoxidationsexperimenten konnte abgeleitet werden, dass in den verschiedenen Lhca-Proteinen unterschiedliche Carotinoidbindungsstellen besetzt sind. Außerdem bestätigten diese Experimente, dass der Xanthophyllzyklus auch im LHCI auftritt, wobei jedoch ein niedrigerer Deepoxidationsgrad erreicht wird als bei LHCII. Dies konnte durch in vitro-Deepoxidationsversuchen auf eine geringere Deepoxidierbarkeit des von Lhca1 und Lhca2 gebundenen Vio zurückgeführt werden. Damit scheint Vio in diesen Lhca-Proteinen eher eine strukturelle Rolle zu übernehmen. Eine photoprotektive Funktion von Zeaxanthin im PSI wäre folglich auf Lhca3 und Lhca4 beschränkt. Damit enthält jede LHCI-Subfraktion ein LHC-Monomer mit langwelliger Fluoreszenz, das möglicherweise am Lichtschutz beteiligt ist. Insgesamt zeigten die Untersuchungen der Pigmentbindung, der Deepoxidierung und der Fluoreszenzeigenschaften, dass sich die verschiedenen Lhca-Proteine in einem oder mehreren dieser Parameter unterscheiden. Dies lässt vermuten, dass schon durch leichte Veränderungen in der Proteinzusammensetzung des LHCI eine Anpassung an unterschiedliche Licht-verhältnisse erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Berechnung von experimentell überprüfbaren Vorhersagen aus dem Standardmodell mit Hilfe störungstheoretischer Methoden ist schwierig. Die Herausforderungen liegen in der Berechnung immer komplizierterer Feynman-Integrale und dem zunehmenden Umfang der Rechnungen für Streuprozesse mit vielen Teilchen. Neue mathematische Methoden müssen daher entwickelt und die zunehmende Komplexität durch eine Automatisierung der Berechnungen gezähmt werden. In Kapitel 2 wird eine kurze Einführung in diese Thematik gegeben. Die nachfolgenden Kapitel sind dann einzelnen Beiträgen zur Lösung dieser Probleme gewidmet. In Kapitel 3 stellen wir ein Projekt vor, das für die Analysen der LHC-Daten wichtig sein wird. Ziel des Projekts ist die Berechnung von Einschleifen-Korrekturen zu Prozessen mit vielen Teilchen im Endzustand. Das numerische Verfahren wird dargestellt und erklärt. Es verwendet Helizitätsspinoren und darauf aufbauend eine neue Tensorreduktionsmethode, die Probleme mit inversen Gram-Determinanten weitgehend vermeidet. Es wurde ein Computerprogramm entwickelt, das die Berechnungen automatisiert ausführen kann. Die Implementierung wird beschrieben und Details über die Optimierung und Verifizierung präsentiert. Mit analytischen Methoden beschäftigt sich das vierte Kapitel. Darin wird das xloopsnosp-Projekt vorgestellt, das verschiedene Feynman-Integrale mit beliebigen Massen und Impulskonfigurationen analytisch berechnen kann. Die wesentlichen mathematischen Methoden, die xloops zur Lösung der Integrale verwendet, werden erklärt. Zwei Ideen für neue Berechnungsverfahren werden präsentiert, die sich mit diesen Methoden realisieren lassen. Das ist zum einen die einheitliche Berechnung von Einschleifen-N-Punkt-Integralen, und zum anderen die automatisierte Reihenentwicklung von Integrallösungen in höhere Potenzen des dimensionalen Regularisierungsparameters $epsilon$. Zum letzteren Verfahren werden erste Ergebnisse vorgestellt. Die Nützlichkeit der automatisierten Reihenentwicklung aus Kapitel 4 hängt von der numerischen Auswertbarkeit der Entwicklungskoeffizienten ab. Die Koeffizienten sind im allgemeinen Multiple Polylogarithmen. In Kapitel 5 wird ein Verfahren für deren numerische Auswertung vorgestellt. Dieses neue Verfahren für Multiple Polylogarithmen wurde zusammen mit bekannten Verfahren für andere Polylogarithmus-Funktionen als Bestandteil der CC-Bibliothek ginac implementiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die verschiedenen Lichtsammelproteine (Lhc-Proteine) höherer Pflanzen unterscheiden sich im Oligomerisierungsverhalten. Im Photosystem II existieren 6 Lhc-Proteine, die entweder die monomeren Lichtsammelkomplexe (LHC) CP24 (Lhcb6), CP26 (Lhcb5) und CP29 (Lhcb4) oder den trimeren LHCII (Lhcb1, Lhcb2 und Lhcb3) bilden. Im Photosystem I sind laut Kristallstruktur vier Lhc-Proteine lokalisiert, die als Heterodimere organisiert vorliegen. Der schwerpunktmäßig untersuchte LHCI-730 setzt sich aus Lhca1 und Lhca4 zusammen, während der LHCI-680 aus Lhca2 und Lhca3 besteht. Das Ziel der Arbeit bestand in der Identifizierung der für das unterschiedliche Oligomerisierungsverhalten verantwortlichen Proteinbereiche und Aminosäuren. Die für diese Arbeit generierten Consensussequenzalignments verschiedener Lhca- und Lhcb-Proteine vieler Arten unterstützen die Folgerungen aus Strukturdaten und anderen Sequenzalignments, dass den LHCs eine gemeinsame Monomerstruktur zu Grunde liegt. Die Helices 1 und 3 weisen weitgehend sehr hohe Sequenzidentitäten auf, während die N- und C-Termini, die zwei Schleifenregionen und die Helix 2 nur schwach konserviert sind. Falls die Bereiche mit hoher Sequenzübereinstimmung für das Zustandekommen ähnlicher monomerer LHC-Strukturen verantwortlich sind, könnten in den schwach konservierten Domänen die Ursachen für das unterschiedliche Oligomerisierungsverhalten lokalisiert sein. Aufgrund dessen wurden die schwach konservierten Domänen des monomerisierenden Lhcb4, des mit dem Lhca1 dimerisierenden Lhca4 und des Trimere bildenden Lhcb1 gegen die entsprechenden Domänen der anderen Proteine ausgetauscht und bezüglich ihres Oligomerisierungsverhaltens untersucht. Im Lhca4 konnten mit der Helix 2 und der stromalen Schleife zwei für eine Heterodimerisierung essentielle Domänen gefunden werden. Im Lhcb1 waren neben dem N-Terminus auch die 2. Helix und die stromale Schleifendomäne unentbehrlich für eine Trimerisierung. Zusätzlich waren Dimerisierung und Trimerisierung bei Austausch der luminalen Schleife beeinträchtigt. Ein geringer Beitrag zur Lhcb1-Trimerisierung konnte auch für den C-Terminus belegt werden. Ein zusätzliches Ziel der Arbeit sollte der Transfer der Oligomerisierungseigenschaften durch umfangreichen Domänentausch von einem auf ein anderes Protein sein. Der Transfer der Fähigkeit zur Dimerbildung durch Substitution gegen essentielle Lhca4-Domänen (50% luminale Schleife, 100% Helix 2 und 100% stromale Schleife) gelang beim Lhcb4, nicht aber beim Lhcb1. Der Transfer der Trimerisierungsfähigkeit auf Lhca4 und Lhcb4 scheiterte. Eine Lhca1-Mutante mit allen für eine Dimerisierung essentiellen Lhca4-Domänen, die durch Interaktion einzelner Moleküle untereinander multimere LHCs bilden sollte, war bereits in ihrer Monomerbildung beeinträchtigt. Eine Übertragung der Oligomerisierungsfähigkeit auf andere Proteine durch massiven Domänentransfer gestaltete sich somit schwierig, da vermutlich im mutierten Protein immer noch ursprüngliche Tertiärstrukturanteile enthalten waren, die nicht mit den transferierten Proteinbestandteilen kompatibel sind. Bei zukünftigen Experimenten zur Klärung der Transferierbarkeit der Oligomerisierungseigenschaft sollten deswegen neben dem unberücksichtigten 1. Teil der luminalen Schleife auch wenig konservierte Aminosäuren in der 1. und 3. Helix Beachtung finden. Ein weiteres Ziel dieser Arbeit war es, die LHCI-730-Dimerisierung im Detail zu untersuchen. Mutationsanalysen bestätigten den von früheren Untersuchungen bekannten Einfluss des Isoleucins 103 und Histidins 99. Letzteres geht möglicherweise durch sein gebundenes Chlorophyll eine Interaktion mit dem Lhca1 ein. Das Phenylalanin 95 stellte sich ebenfalls als ein wichtiger Interaktionspartner heraus und könnte in Wechselwirkung mit einem zwischen Lhca1 und Lhca4 lokalisierten Phosphatidylglycerin treten. Das ebenfalls an der Dimerbildung beteiligte Serin 88 des Lhca4 könnte auf Grund der räumlichen Nähe bei Modellierungen direkt mit dem am C-Terminus des Lhca1 lokalisierten Glycin 190 interagieren. Darüber hinaus wurde ein in der luminalen Lhca4-Schleife lokalisiertes Phenylalanin 84 als Interaktionspartner des Tryptophans 185 im C-Terminus von Lhca1 identifiziert. Der simultane Austausch des Isoleucins 109 und Lysins 110 in der stromalen Schleife des Lhca4, konnte deren Einfluss auf die Dimerisierung belegen. Nachdem bislang an der Dimerbildung beteiligte Aminosäuren am N- und C-Terminus des Lhca1 und Lhca4 identifiziert werden konnten, wurden in dieser Arbeit viele an einer Dimerbildung beteiligten Proteinbereiche und Aminosäuren in der Helix 2 und den Schleifenregionen des Lhca4 identifiziert. Um alle an der Lhca1-Lhca4-Interaktion beteiligten Aminosäuren aufzuklären, müssten durch Mutationsanalysen die in der stromalen Lhca4-Schleife vermuteten Interaktionspartner des für die Dimerisierung wichtigen Tryptophans 4 am N-Terminus von Lhca1 identifiziert, und die in der Helix 3 des Lhca1 vermuteten Interaktionspartner der Helix 2 des Lhca4 ermittelt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das am Südpol gelegene Neutrinoteleskop IceCube detektiert hochenergetische Neutrinos über die schwache Wechselwirkung geladener und neutraler Ströme. Die Analyse basiert auf einem Vergleich mit Monte-Carlo-Simulationen, deren Produktion global koordiniert wird. In Mainz ist es erstmalig gelungen, Simulationen innerhalb der Architektur des Worldwide LHC Computing Grid (WLCG) zu realisieren, was die Möglichkeit eröffnet, Monte-Carlo-Berechnungen auch auf andere deutsche Rechnerfarmen (CEs) mit IceCube-Berechtigung zu verteilen. Atmosphärische Myonen werden mit einer Rate von über 1000 Ereignissen pro Sekunde aufgezeichnet. Eine korrekte Interpretation dieses dominanten Signals, welches um einen Faktor von 10^6 reduziert werden muss um das eigentliche Neutrinosignal zu extrahieren, ist deswegen von großer Bedeutung. Eigene Simulationen mit der Software-Umgebung CORSIKA wurden durchgeführt um die von Energie und Einfallswinkel abhängige Entstehungshöhe atmosphärischer Myonen zu bestimmen. IceCube Myonraten wurden mit Wetterdaten des European Centre for Medium-Range Weather Forcasts (ECMWF) verglichen und Korrelationen zwischen jahreszeitlichen sowie kurzzeitigen Schwankungen der Atmosphärentemperatur und Myonraten konnten nachgewiesen werden. Zudem wurde eine Suche nach periodischen Effekten in der Atmosphäre, verursacht durch z.B. meteorologische Schwerewellen, mit Hilfe einer Fourieranalyse anhand der IceCube-Daten durchgeführt. Bislang konnte kein signifikanter Nachweis zur Existenz von Schwerewellen am Südpol erbracht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In green plants, the function of collecting solar energy for photosynthesis is fulfilled by a series of light-harvesting complexes (LHC). The light-harvesting chlorophyll a/b protein (LHCP) is synthesized in the cytosol as a precursor (pLHCP), then imported into chloroplasts and assembled into photosynthetic thylakoid membranes. Knowledge about the regulation of the transport processes of LHCP is rather limited. Closely mimicking the in vivo situation, cell-free protein expression system is employed in this dissertation to study the reconstitution of LHCP into artificial membranes. The approach starts merely from the genetic information of the protein, so the difficult and time-consuming procedures of protein expression and purification can be avoided. The LHCP encoding gene from Pisum sativum was cloned into a cell-free compatible vector system and the protein was expressed in wheat germ extracts. Vesicles or pigment-containing vesicles were prepared with either synthetic lipid or purified plant leaf lipid to mimic cell membranes. LHCP was synthesized in wheat germ extract systems with or without supplemented lipids. The addition of either synthetic or purified plant leaf lipid was found to be beneficial to the general productivity of the expression system. The lipid membrane insertion of the LHCP was investigated by radioactive labelling, protease digestion, and centrifugation assays. The LHCP is partially protected against protease digestion; however the protection is independent from the supplemented lipids.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The production of the Z boson in proton-proton collisions at the LHC serves as a standard candle at the ATLAS experiment during early data-taking. The decay of the Z into an electron-positron pair gives a clean signature in the detector that allows for calibration and performance studies. The cross-section of ~ 1 nb allows first LHC measurements of parton density functions. In this thesis, simulations of 10 TeV collisions at the ATLAS detector are studied. The challenges for an experimental measurement of the cross-section with an integrated luminositiy of 100 pb−1 are discussed. In preparation for the cross-section determination, the single-electron efficiencies are determined via a simulation based method and in a test of a data-driven ansatz. The two methods show a very good agreement and differ by ~ 3% at most. The ingredients of an inclusive and a differential Z production cross-section measurement at ATLAS are discussed and their possible contributions to systematic uncertainties are presented. For a combined sample of signal and background the expected uncertainty on the inclusive cross-section for an integrated luminosity of 100 pb−1 is determined to 1.5% (stat) +/- 4.2% (syst) +/- 10% (lumi). The possibilities for single-differential cross-section measurements in rapidity and transverse momentum of the Z boson, which are important quantities because of the impact on parton density functions and the capability to check for non-pertubative effects in pQCD, are outlined. The issues of an efficiency correction based on electron efficiencies as function of the electron’s transverse momentum and pseudorapidity are studied. A possible alternative is demonstrated by expanding the two-dimensional efficiencies with the additional dimension of the invariant mass of the two leptons of the Z decay.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, we study the phenomenology of selected observables in the context of the Randall-Sundrum scenario of a compactified warpedrnextra dimension. Gauge and matter fields are assumed to live in the whole five-dimensional space-time, while the Higgs sector is rnlocalized on the infrared boundary. An effective four-dimensional description is obtained via Kaluza-Klein decomposition of the five dimensionalrnquantum fields. The symmetry breaking effects due to the Higgs sector are treated exactly, and the decomposition of the theory is performedrnin a covariant way. We develop a formalism, which allows for a straight-forward generalization to scenarios with an extended gauge group comparedrnto the Standard Model of elementary particle physics. As an application, we study the so-called custodial Randall-Sundrum model and compare the resultsrnto that of the original formulation. rnWe present predictions for electroweak precision observables, the Higgs production cross section at the LHC, the forward-backward asymmetryrnin top-antitop production at the Tevatron, as well as the width difference, the CP-violating phase, and the semileptonic CP asymmetry in B_s decays.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Standard Model of elementary particle physics was developed to describe the fundamental particles which constitute matter and the interactions between them. The Large Hadron Collider (LHC) at CERN in Geneva was built to solve some of the remaining open questions in the Standard Model and to explore physics beyond it, by colliding two proton beams at world-record centre-of-mass energies. The ATLAS experiment is designed to reconstruct particles and their decay products originating from these collisions. The precise reconstruction of particle trajectories plays an important role in the identification of particle jets which originate from bottom quarks (b-tagging). This thesis describes the step-wise commissioning of the ATLAS track reconstruction and b-tagging software and one of the first measurements of the b-jet production cross section in pp collisions at sqrt(s)=7 TeV with the ATLAS detector. The performance of the track reconstruction software was studied in great detail, first using data from cosmic ray showers and then collisions at sqrt(s)=900 GeV and 7 TeV. The good understanding of the track reconstruction software allowed a very early deployment of the b-tagging algorithms. First studies of these algorithms and the measurement of the b-tagging efficiency in the data are presented. They agree well with predictions from Monte Carlo simulations. The b-jet production cross section was measured with the 2010 dataset recorded by the ATLAS detector, employing muons in jets to estimate the fraction of b-jets. The measurement is in good agreement with the Standard Model predictions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The dominant process in hard proton-proton collisions is the production of hadronic jets.rnThese sprays of particles are produced by colored partons, which are struck out of their confinement within the proton.rnPrevious measurements of inclusive jet cross sections have provided valuable information for the determination of parton density functions and allow for stringent tests of perturbative QCD at the highest accessible energies.rnrnThis thesis will present a measurement of inclusive jet cross sections in proton-proton collisions using the ATLAS detector at the LHC at a center-of-mass energy of 7 TeV.rnJets are identified using the anti-kt algorithm and jet radii of R=0.6 and R=0.4.rnThey are calibrated using a dedicated pT and eta dependent jet calibration scheme.rnThe cross sections are measured for 40 GeV < pT <= 1 TeV and |y| < 2.8 in four bins of absolute rapidity, using data recorded in 2010 corresponding to an integrated luminosity of 3 pb^-1.rnThe data is fully corrected for detector effects and compared to theoretical predictions calculated at next-to-leading order including non-perturbative effects.rnThe theoretical predictions are found to agree with data within the experimental and theoretic uncertainties.rnrnThe ratio of cross sections for R=0.4 and R=0.6 is measured, exploiting the significant correlations of the systematic uncertainties, and is compared to recently developed theoretical predictions.rnThe underlying event can be characterized by the amount of transverse momentum per unit rapidity and azimuth, called rhoue.rnUsing analytical approaches to the calculation of non-perturbative corrections to jets, rhoue at the LHC is estimated using the ratio measurement.rnA feasibility study of a combined measurement of rhoue and the average strong coupling in the non-perturbative regime alpha_0 is presented and proposals for future jet measurements at the LHC are made.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Wirkungsquerschnitt der Charmoniumproduktion wurde unter Nutzung der Daten aus pp-Kollisionen bei s^{1/2}=7TeV, die im Jahr 2010 vom Atlas-Experiment am LHC aufgezeichnet wurden, gemessen. Um das notwendige Detektorverständnis zu verbessern, wurde eine Energiekalibration durchgeführt.rnrnrnUnter Nutzung von Elektronen aus Zerfällen des Charmoniums wurde die Energieskala der elektromagnetischen Kalorimeter bei niedrigen Energien untersucht. Nach Anwendung der Kalibration wurden für die Energiemessung im Vergleich mit in Monte-Carlo-Simulationen gemessenen Energien Abweichungen von weniger als 0,5% gefunden.rnrnrnMit einer integrierten Luminosität von 2,2pb^{-1} wurde eine erste Messung des inklusiven Wirkungsquerschnittes für den Prozess pp->J/psi(e^{+}e^{-})+X bei s^{1/2}=7TeV vorgenommen. Das geschah im zugänglichen Bereich für Transversalimpulse p_{T,ee}>7GeV und Rapiditäten |y_{ee}|<2,4. Es wurden differentielle Wirkungsquerschnitte für den Transversalimpuls p_{T,ee} und für die Rapidität |y_{ee}| bestimmt. Integration beider Verteilungen lieferte für den inklusiven Wirkungsquerschnitt sigma(pp-> J/psi X)BR(J/psi->e^{+}e^{-}) die Werte (85,1+/-1,9_{stat}+/-11,2_{syst}+/-2,9_{Lum})nb und (75,4+/-1,6_{stat}+/-11,9_{syst}+/-2,6_{Lum})nb, die innerhalb der Systematik kompatibel sind.rnrnrnVergleiche mit Messungen von Atlas und CMS für den Prozess pp->J/psi(mu^{+}mu^{-})+X zeigten gute Übereinstimmung. Zum Vergleich mit der Theorie wurden Vorhersagen mit verschiedenen Modellen in nächst-zu-führender und mit Anteilen in nächst-zu-nächst-zu-führender Ordnung kombiniert. Der Vergleich zeigt eine gute Übereinstimmung bei Berücksichtigung von Anteilen in nächst-zu-nächst-zu-führender Ordnung.