72 resultados para Tieftemperatur-Detektor


Relevância:

70.00% 70.00%

Publicador:

Resumo:

Kalorimetrische Tieftemperatur-Detektoren (Calorimetric Low Temperature Detectors, CLTDs) wurden erstmals in Messungen zur Bestimmung des spezifischen Energieverlustes (dE/dx) niederenergetischer Schwerionen beim Durchgang durch Materie eingesetzt. Die Messungen wurden im Energiebereich unterhalb des Bragg-Peaks, mit 0.1 - 1.4 MeV/u 238U-Ionen in Kohlenstoff und Gold sowie mit 0.05 - 1.0 MeV/u 131Xe-Ionen in Kohlenstoff, Nickel und Gold, durchgeführt. Die Kombination der CLTDs mit einem Flugzeitdetektor ermöglichte dabei, kontinuierliche dE/dx-Kurven über größere Energiebereiche hinweg simultan zu bestimmen. Im Vergleich zu herkömmlichen Meßsystemen, die Ionisationsdetektoren zur Energiemessung verwenden, erlaubten die höhere Energieauflösung und -linearität der CLTDs eine Verringerung der Kalibrierungsfehler sowie eine Erweiterung des zugänglichen Energiebereiches der dE/dx-Messungen in Richtung niedriger Energien. Die gewonnen Daten können zur Anpassung theoretischer und semi-empirischer Modelle und somit zu einer Erhöhung der Präzision bei der Vorhersage spezifischer Energieverluste schwerer Ionen beitragen. Neben der experimentellen Bestimmung neuer Daten wurden das alternative Detektionsprinzip der CLTDs, die Vorteile dieser Detektoren bezüglich Energieauflösung und -linearität sowie der modulare Aufbau des CLTD-Arrays aus mehreren Einzeldetektoren genutzt, um diese Art von Messung auf potentielle systematische Unsicherheiten zu untersuchen. Unter anderem wurden hierbei unerwartete Channeling-Effekte beim Durchgang der Ionen durch dünne polykristalline Absorberfolien beobachtet. Die koinzidenten Energie- und Flugzeitmessungen (E-ToF) wurden weiterhin genutzt, um das Auflösungsvermögen des Detektor-Systems bei der direkten in-flight Massenbestimmung langsamer und sehr schwerer Ionen zu bestimmen. Durch die exzellente Energieauflösung der CLTDs konnten hierbei Massenauflösungen von Delta-m(FWHM) = 1.3 - 2.5 u für 0.1 - 0.6 MeV/u 238U-Ionen erreicht werden. In einer E-ToF-Messung mit Ionisationsdetektoren sind solche Werte in diesem Energie- und Massenbereich aufgrund der Limitierung der Energieauflösung durch statistische Schwankungen von Verlustprozessen beim Teilchennachweis nicht erreichbar.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden vom ALEPH-Detektor am Speicherring LEP des CERN in Genf genommene Datenmengen aus den Jahren 1997 bis 1999 analysiert und sowohl Kopplungsparameter am Drei-Eichbosonen-Vertex derW-Boson-Paarproduktion, als auch die Anteile longitudinal beziehungsweise transversal polarisierter W-Bosonen, bei Schwerpunktsenergien von 183 GeV bis 202 GeV bestimmt. Betrachtet wird der rein leptonische Zerfallskanal, in dembeide W-Bosonen in ein Elektron-Neutrino- oder ein Myon-Neutrino-Paar zerfallen, der einen geringen Wirkungsquerschnitt aufweist, aber eine klareDetektorsignatur. Die aufgezeichneten Ereignisse werden selektiert und dabei eine Reinheit von durchschnittlich 72% erreicht. Der Hauptuntergrund besteht aus W-Boson-Paaren, bei denen zumindest ein W-Boson in ein Tauon-Neutrino-Paarzerfällt. Dieser Kanal zeigt ein sehr signalähnliches Verhalten. Die selektierten Ereignisse werden kinematisch rekonstruiert, um die Winkelverteilungen der Zerfallsprodukte der W-Bosonen zu extrahieren. Aus den Polarwinkelverteilungen der geladenen Zerfallsprodukte der W-Bosonen werden die Anteile longitudinal beziehungsweise transversal polarisierterW-Bosonen durch Anpassung der theoretischen Vorhersage an die selektierten Daten bestimmt. Dabei wird gefunden, daß f? = (71,6 ? 6,4_{stat.} ? 3,7_{syst.}) % der produzierten W-Bosonen transversal polarisiert sind, in Übereinstimmung mit der Vorhersage des Standardmodells (75,1%). Dieser Wert ist ein erster Hinweis auf die Kopplungsparameter am Drei-Eichbosonen-Vertex. Die CP-erhaltenden allgemeinen Kopplungsparameter $g_{rm Z}^1$, $kappa_gamma$ und $lambda_gamma$ werden bestimmt zu: $g_{rm Z}^1 = {{1,19^{+0,13}_{-0,16}}_{stat.}} {^{+0,09}_{-0,09}}_{syst.}$,$kappa_gamma = {{1,06^{+0,27}_{-0,09}}_{stat.}} {^{+0,08}_{-0,08}}_{syst.}$,$lambda_gamma = {{0,16^{+0,11}_{-0,13}}_{stat.}} {^{+0,08}_{-0,08}}_{syst.}$. Das Standardmodell sagt $g_{rm Z}^1 = 1$, $kappa_gamma = 1$ und $lambda_gamma = 0$ voraus. Mit diesen Kopplungsparametern lassen sich das magnetischeDipolmoment und das elektrische Quadrupolmoment der W-Bosonen bestimmen zu: $mu_{rm W} = frac{e}{2m_{rm W}} cdot (2,22^{+0,31}_{-0,19})$,$q_{rm W} = - frac{e}{m_{rm W}^2} cdot (0,90^{+0,32}_{-0,18})$. Die Messung der Kopplungsparameter stellt einen wichtigen Test des minimalen Standardmodells dar. In einem Jahr wird es möglich sein, diesen Test mit allen Daten aus der Phase II des Betriebs von LEP durchzuführen und die Genauigkeit durch Kombination mit anderen LEP-Experimenten zu erhöhen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Daten, die im Jahr 2000 mit dem NA48-Detektoraufgenommen wurden,werden in dieser Arbeit dazuverwendet, das Verzweigungsverhältnis des ZerfallsKs -> gamma gamma zu bestimmen.Zur Reduktion der Unsicherheit auf diese Messungwurde ausserdem das Verhältnis der Zerfallsbreitender Zerfälle Kl -> gamma gamma undKl -> 3 pi^0:Gamma(Kl -> gamma gamma)/Gamma(Kl -> 3 pi^0)gemessen. Für das Verzweigungsverhältnis vonKs -> gamma gamma existiert eine eindeutige undendliche Vorhersage in der Ordnung O(p^4) derChiralen Störungstheorie (CHPT) vonBR(Ks -> gamma gamma)(O(p^4)) = (2,1 +- 0,1)x10^(-6).Alle bisherigen Messungen befanden sich in guterÜbereinstimmung mit dieser Vorhersage.Die Ergebnisse der für diese Arbeit durchgeführten Analyse lauten:

BR(Ks -> gamma gamma) = (2,78 +- 0,05(stat) +- 0,04(sys))x10^(-6)
Gamma(Ks -> gamma gamma )/Gamma(Kl-> gamma gamma)=2,71 +- 0.08
Gamma(Kl -> gamma gamma )/Gamma(Kl-> 3 pi^0)=(2,80 +- 0,01(stat) +- 0,02(sys))x10^(-3)
BR(Kl -> gamma gamma)=(5,90 +- 0,02(stat) +- 0,04(sys) +- 0,08(ext))x10^(-3)
Der Fehler aufGamma(Kl -> gamma gamma )/Gamma(Kl -> 3 pi^0)konnte um einen Faktor vier gegenüber früherenMessungen reduziert werden. Das daraus mit Hilfevon BR(Kl -> 3 pi^0) berechneteVerzweigungsverhältnis von Kl -> gamma gammaist nur um einen Faktor 1,7 genauer als frühereErgebnisse, da die Unsicherheit auf BR(Kl -> 3 pi^0)vergleichsweise groß ist.Das Verzweigungsverhältnis des ZerfallsKs -> gamma gamma wurde mit einem Fehlervon weniger als 3 % gemessen und ist damit um einenFaktor 7 genauer als vorherige Messungen. So konnteauch erstmals gezeigt werden, dass die Vorhersageder CHPT in Ordnung O(p^4) nicht ausreicht, um dieMessung zu beschreiben.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Ziel des Experiments NA48 am CERN ist die Messung des Parameters Re(epsilon'/epsilon) der direktenCP-Verletzung mit einer Genauigkeit von 2x10^-4. Experimentell zugänglich ist das DoppelverhältnisR, das aus den Zerfällen des KL und KS in zwei neutrale bzw. zwei geladene Pionengebildet wird. Für R gilt in guter Näherung: R=1-6Re(epsilon'/epsilon).
NA48 verwendet eine Wichtung der KL-Ereignisse zur Reduzierung der Sensitivität auf dieDetektorakzeptanz. Zur Kontrolle der bisherigen Standardanalyse wurde eine Analyse ohne Ereigniswichtung durchgeführt. Das Ergebnis derungewichteten Analyse wird in dieser Arbeit vorgestellt. Durch Verzicht auf die Ereigniswichtung kann derstatistische Anteil des Gesamtfehlers deutlich verringert werden. Da der limitierende Kanal der Zerfall deslanglebigen Kaons in zwei neutrale Pionen ist, ist die Verwendung der gesamten Anzahl derKL-Zerfälle ein lohnendes Ziel.Im Laufe dieser Arbeit stellte sich heraus, dass dersystematische Fehler der Akzeptanzkorrektur diesen Gewinn wieder aufhebt.

Das Ergebnis der Arbeit für die Daten aus den Jahren 1998und 1999 ohne Ereigniswichtung lautet
Re(epsilon'/epsilon)=(17,91+-4,41(syst.)+-1,36(stat.))x10^-4.
Damit ist eindeutig die Existenz der direkten CP-Verletzungbestätigt. Dieses Ergebnis ist mit dem veröffentlichten Ergebnis vonNA48 verträglichSomit ist der Test der bisherigen Analysestrategie bei NA48erfolgreich durchgeführt worden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Der AMANDA-II Detektor ist primär für den richtungsaufgelösten Nachweis hochenergetischer Neutrinos konzipiert. Trotzdem können auch niederenergetische Neutrinoausbrüche, wie sie von Supernovae erwartet werden, mit hoher Signifikanz nachgewiesen werden, sofern sie innerhalb der Milchstraße stattfinden. Die experimentelle Signatur im Detektor ist ein kollektiver Anstieg der Rauschraten aller optischen Module. Zur Abschätzung der Stärke des erwarteten Signals wurden theoretische Modelle und Simulationen zu Supernovae und experimentelle Daten der Supernova SN1987A studiert. Außerdem wurden die Sensitivitäten der optischen Module neu bestimmt. Dazu mussten für den Fall des südpolaren Eises die Energieverluste geladener Teilchen untersucht und eine Simulation der Propagation von Photonen entwickelt werden. Schließlich konnte das im Kamiokande-II Detektor gemessene Signal auf die Verhältnisse des AMANDA-II Detektors skaliert werden. Im Rahmen dieser Arbeit wurde ein Algorithmus zur Echtzeit-Suche nach Signalen von Supernovae als Teilmodul der Datennahme implementiert. Dieser beinhaltet diverse Verbesserungen gegenüber der zuvor von der AMANDA-Kollaboration verwendeten Version. Aufgrund einer Optimierung auf Rechengeschwindigkeit können nun mehrere Echtzeit-Suchen mit verschiedenen Analyse-Zeitbasen im Rahmen der Datennahme simultan laufen. Die Disqualifikation optischer Module mit ungeeignetem Verhalten geschieht in Echtzeit. Allerdings muss das Verhalten der Module zu diesem Zweck anhand von gepufferten Daten beurteilt werden. Dadurch kann die Analyse der Daten der qualifizierten Module nicht ohne eine Verzögerung von etwa 5 Minuten geschehen. Im Falle einer erkannten Supernova werden die Daten für die Zeitdauer mehrerer Minuten zur späteren Auswertung in 10 Millisekunden-Intervallen archiviert. Da die Daten des Rauschverhaltens der optischen Module ansonsten in Intervallen von 500 ms zur Verfgung stehen, ist die Zeitbasis der Analyse in Einheiten von 500 ms frei wählbar. Im Rahmen dieser Arbeit wurden drei Analysen dieser Art am Südpol aktiviert: Eine mit der Zeitbasis der Datennahme von 500 ms, eine mit der Zeitbasis 4 s und eine mit der Zeitbasis 10 s. Dadurch wird die Sensitivität für Signale maximiert, die eine charakteristische exponentielle Zerfallszeit von 3 s aufweisen und gleichzeitig eine gute Sensitivität über einen weiten Bereich exponentieller Zerfallszeiten gewahrt. Anhand von Daten der Jahre 2000 bis 2003 wurden diese Analysen ausführlich untersucht. Während die Ergebnisse der Analyse mit t = 500 ms nicht vollständig nachvollziehbare Ergebnisse produzierte, konnten die Resultate der beiden Analysen mit den längeren Zeitbasen durch Simulationen reproduziert und entsprechend gut verstanden werden. Auf der Grundlage der gemessenen Daten wurden die erwarteten Signale von Supernovae simuliert. Aus einem Vergleich zwischen dieser Simulation den gemessenen Daten der Jahre 2000 bis 2003 und der Simulation des erwarteten statistischen Untergrunds kann mit einem Konfidenz-Niveau von mindestens 90 % gefolgert werden, dass in der Milchstraße nicht mehr als 3.2 Supernovae pro Jahr stattfinden. Zur Identifikation einer Supernova wird ein Ratenanstieg mit einer Signifikanz von mindestens 7.4 Standardabweichungen verlangt. Die Anzahl erwarteter Ereignisse aus dem statistischen Untergrund beträgt auf diesem Niveau weniger als ein Millionstel. Dennoch wurde ein solches Ereignis gemessen. Mit der gewählten Signifikanzschwelle werden 74 % aller möglichen Vorläufer-Sterne von Supernovae in der Galaxis überwacht. In Kombination mit dem letzten von der AMANDA-Kollaboration veröffentlicheten Ergebnis ergibt sich sogar eine obere Grenze von nur 2.6 Supernovae pro Jahr. Im Rahmen der Echtzeit-Analyse wird für die kollektive Ratenüberhöhung eine Signifikanz von mindestens 5.5 Standardabweichungen verlangt, bevor eine Meldung über die Detektion eines Supernova-Kandidaten verschickt wird. Damit liegt der überwachte Anteil Sterne der Galaxis bei 81 %, aber auch die Frequenz falscher Alarme steigt auf bei etwa 2 Ereignissen pro Woche. Die Alarm-Meldungen werden über ein Iridium-Modem in die nördliche Hemisphäre übertragen, und sollen schon bald zu SNEWS beitragen, dem weltweiten Netzwerk zur Früherkennung von Supernovae.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Eine wichtige Komponente des Standardmodells der Teilchenphysik bildet der Higgs-Mechanismus, der benötigt wird um den vom Standardmodell beschriebenen Teilchen Masse zu verleihen. Dieser Mechanismus beinhaltet jedoch ein weiteres schweres Elementarteilchen das bislang noch nich beobachtet werden konnte. Die Suche nach diesem Teilchen ist eines Hauptziele der derzeitigen Forschung an Teilchenbeschleunigern. Diese Arbeit untersucht die vom D0-Detektor am Tevatron des Fermi National Accelerator Laboratory (FNAL) aufgezeichneten Daten von ppbar-Kollisionen bei einer Schwerpunktsenergie von sqrt{s}=1.96 TeV, um im Kanal WH -> enu bb nach einem leichten Higgs-Boson zu suchen. Darüber hinaus wird der Produktionswirkungsquerschnitt der Wbb-Produktion ermittelt. Für die Analyse stand eine integrierte Luminosität von L=255pb^{-1} zur Verfügung. Zur Selektion dieser Prozesse, werden Ereignisse ausgewählt, die Elektronen und fehlenden Transversalimpuls enthalten, sowie mindestens zwei Jets, die sich als b-Jets identifizieren lassen. Um eine effiziente Selektion zu erhalten, wurden Schnitte auf verschiedene Kenngrößen entwickelt, getestet und optimiert. Aus den selektierten Ereignissen wird der Wbb-Wirkungsquerschnitt ermittelt, der für Ereignisse angegeben wird, in denen die b-Quarks p_T>8 GeV und |eta|<3 erfüllen. Der unter Berücksichtigung des Verzweigungsverhältnisses BR(W->enu)=0.108 errechnete Wert ist sigma(Wbb)=21.8 pb (+15.5; -20.0 pb(sys+stat)). Wegen der geringen Signifikanz der Messung von etwa 1.2sigma wurden die Ereigniszahlen auch zur Berechnung einer oberen Grenze auf den Wirkungsquerschnitt verwendet, die sich bei einem Konfidenzniveau von 95% zu sigma^95(Wbb)=60.9pb ergibt. Ebenso wurden Grenzen auf den WH-Produktionswirkungsquerschnitt ermittelt. Dafür wurde die statistische Methode von Feldman und Cousins angewandt, nachdem sie nach den Vorschlägen von Conrad et al. erweitert worden war, um systematische Unsicherheiten zu berücksichtigen. Für ein Standardmodell Higgs-Boson der Masse 115 GeV kann eine obere Grenze auf den Produktionswirkungsquerschnitt von sigma^{95} (WH)=12.2pb angegeben werden. Für höhere Massen bis 135 GeV werden ähnliche Grenzen ermittelt.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Im Jahre 2002 wurde mit dem NA48/1-Detektor eine Datennahme mit hoher Intensität von K_S-Mesonen und neutralen Hyperonen durchgeführt, bei der unter anderem etwa 10^9 Xi^0-Zerfallskandidaten aufgezeichnet wurden. Im Rahmen dieser Arbeit wurden aus diesem Datensatz 6657 Xi^0 -> Sigma^+ e^- Anti-nü und 581 Anti-Xi^0 -> Anti-Sigma^+ e^+ nü-Ereignisse ausgewählt und damit die Verzweigungsverhältnisse BR1(Gamma(Xi^0 -> Sigma^+ e^- Anti-nü)/Gamma(Xi^0 total))=( 2.533 +-0.032(stat) -0.076+0.089(syst) )10^-4 und BR2(Gamma(Anti-Xi^0 -> Anti-Sigma^+ e^+ nü)/Gamma(Anti-Xi^0 total))= ( 2.57 +-0.12(stat) -0.09+0.10(syst) )10^-4 bestimmt. Dieses Ergebnis für BR1 ist etwa 3.5-mal genauer als die bisher veröffentlichte Messung. Die Analyse der Anti-Xi^0-Beta-Zerfälle stellt die erste Messung von BR2 dar. Beide Ergebnisse stimmen mit der theoretischen Vorhersage von 2.6*10^-4 überein. Aus dem Xi^0-Beta-Verzweigungsverhältnis folgt unter Verwendung des experimentellen Wertes des Formfaktorverhältnisses g1/f1 für das CKM-Matrixelement |Vus| = 0.209 +- 0.004(exp) +- 0.026(syst), wobei die dominierende Unsicherheit von g1/f1 herrührt. Außerdem wurden in dieser Arbeit 99 Xi^0 -> Sigma^+ mu^- Anti-nü Zerfallskandidaten mit einem abgeschätzten Untergrund von 30 Ereignissen rekonstruiert und daraus ebenfalls das Verzweigungsverhältnis extrahiert: BR3(Gamma(Xi^0 -> Sigma^+ mu^- Anti-nü)/Gamma(Xi^0 total)) = ( 2.11 +- 0.31(stat) +- 0.15(syst) )10^-6.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Zu den Hauptcharakteristika von Teilchen gehoert - neben der Masse - die Lebensdauer. Die mittlere Lebensdauer des Xi0-Hyperons, die sich aus der mittleren Lebensdauer des Xi--Hyperons ueber die Delta I=1/2-Regel theoretisch voraussagen laesst, wurde bereits mehrfach experimentell bestimmt. Die neueste Messung aus dem Jahr 1977 besitzt jedoch eine relative Unsicherheit von 5%, was sich mit Daten neuerer Experimente deutlich verbessern laesst. Die mittlere Lebensdauer ist ein wichtiger Parameter bei der Bestimmung des Matrixelements Vus der Cabibbo-Kobayashi-Maskawa-Matrix in semileptonischen Xi0-Zerfaellen. Im Jahre 2002 wurde mit dem NA48-Detektor eine Datennahme mit hoher Intensitaet durchgefuehrt, bei der unter anderem etwa 10^9 Xi0-Zerfallskandidaten aufgezeichnet wurden. Davon wurden im Rahmen dieser Arbeit 192000 Ereignisse des Typs "Xi0 nach Lambda pi0" rekonstruiert und 107000 Ereignisse zur Bestimmung der mittleren Lebensdauer durch Vergleich mit simulierten Ereignissen verwendet. Zur Vermeidung von systematischen Fehlern wurde die Lebensdauer in zehn Energieintervallen durch Vergleich von gemessenen und simulierten Daten ermittelt. Das Ergebnis ist wesentlich genauer als bisherige Messungen und weicht vom Literaturwert (tau=(2,90+-0,09)*10^(-10)s) um (+4,99+-0,50(stat)+-0,58(syst))% ab, was 1,7 Standardabweichungen entspricht. Die Lebensdauer ergibt sich zu tau=(3,045+-0,015(stat)+-0,017(syst))*10^(-10)s. Auf die gleiche Weise konnte mit den zur Verfuegung stehenden Daten erstmals die Lebensdauer des Anti-Xi0-Hyperons gemessen werden. Das Ergebnis dieser Messung ist tau=(3,042+-0,045(stat)+-0,017(syst))*10^(-10)s.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Das Standardmodell (SM) der Teilchenphysik beschreibt sehr präzise die fundamentalen Bausteine und deren Wechselwirkungen (WW). Trotz des Erfolges gibt es noch offene Fragen, die vom SM nicht beantwortet werden können. Ein noch noch nicht abgeschlossener Test besteht aus der Messung der Stärke der schwachen Kopplung zwischen Quarks. Neutrale B- bzw. $bar{B}$-Mesonen können sich innerhalb ihrer Lebensdauer über einen Prozeß der schwachen WW in ihr Antiteilchen transformieren. Durch die Messung der Bs-Oszillation kann die Kopplung Vtd zwischen den Quarksorten Top (t) und Down (d) bestimmt werden. Alle bis Ende 2005 durchgeführten Experimente lieferten lediglich eine untere Grenze für die Oszillationsfrequenz von ms>14,4ps-1. Die vorliegenden Arbeit beschreibt die Messung der Bs-Oszillationsfrequenz ms mit dem semileptonischen Kanal BsD(-)+. Die verwendeten Daten stammen aus Proton-Antiproton-Kollisionen, die im Zeitraum von April 2002 bis März 2006 mit dem DØ-Detektor am Tevatron-Beschleuniger des Fermi National Accelerator Laboratory bei einer Schwerpunktsenergie von $sqrt{s}$=1,96TeV aufgezeichnet wurden. Die verwendeten Datensätze entsprechen einer integrierten Luminosität von 1,3fb-1 (620 millionen Ereignisse). Für diese Oszillationsmessung wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion sowie des Zerfalls bestimmt und die Zerfallszeit wurde gemessen. Nach der Rekonstruktion und Selektion der Signalereignisse legt die Ladung des Myons den Quarkinhalt des Bs-Mesons zur Zeit des Zerfalls fest. Zusätzlich wurde der Quarkinhalt des Bs-Mesons zur Zeit der Produktion markiert. b-Quarks werden in $pbar{p}$-Kollisionen paarweise produziert. Die Zerfallsprodukte des zweiten b-Hadrons legen den Quarkinhalt des Bs-Mesons zur Zeit der Produktion fest. Bei einer Sensitivität von msenss=14,5ps-1 wurde eine untere Grenze für die Oszillationsfrequenz ms>15,5ps-1 bestimmt. Die Maximum-Likelihood-Methode lieferte eine Oszillationsfrequenz ms>(20+2,5-3,0(stat+syst)0,8(syst,k))ps-1 bei einem Vertrauensniveau von 90%. Der nicht nachgewiesene Neutrinoimpuls führt zu dem systematischen Fehler (sys,k). Dieses Resultat ergibt zusammen mit der entsprechenden Oszillation des Bd-Mesons eine signifikante Messung der Kopplung Vtd, in Übereinstimmung mit weiteren Experimenten über die schwachen Quarkkopplungen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Bis heute ist die Frage nicht geklärt, warum bei der Entstehung des Universums Materie gegenüber der Antimaterie bevorzugt war und das heutige Materieuniversum entstanden ist. Eine Voraussetzung für die Entstehung dieser Materie-Antimaterie-Asymmetrie ist die Verletzung der Kombination von Ladungs- (C) und Punktsymmetrie (P), die CP-Verletzung. CP-Verletzung kann sich unter anderem in den Zerfällen K+- -> pi+- pi0 pi0 zeigen. Die NA48/2"=Kollaboration zeichnete während den Jahren 2003 und 2004 über 200~TB Daten von Zerfällen geladener Kaonen auf. In dieser Arbeit wurde die CP"=verletzende Asymmetrie der Zerfälle K+- -> pi+- pi0 pi0 mit über 90~Millionen ausgewählten Ereignissen aus diesem Datensatz gemessen. Vorhersagen im Standardmodell der Teilchenphysik sagen hier eine CP"=verletzende Asymmetrie in der Größenordnung zwischen $10^{-6}$ und $10^{-5}$ voraus. In Modellen außerhalb des Standardmodells kann es aber auch größere Asymmetrien geben. Das NA48/2"=Experiment war darauf ausgelegt, mögliche systematische Unsicherheiten zu begrenzen. Um dies zu erreichen, wurden positive und negative Kaonen simultan an einem Target erzeugt und ihr Impuls durch ein Strahlsystem mit zwei Strahlengängen auf ca. $60~GeV/c$ begrenzt. Die Strahlen wurden auf wenige Millimeter genau überlagert in die Zerfallsregion geleitet. Die Strahlengänge von positiven und negativen Kaonen sowie die Polarität des Magneten des Impulsspektrometers wurden regelmäßig gewechselt. Dies erlaubte eine Symmetrisierung von Strahlführung und Detektor für positive und negative Kaonen während der Analyse. Durch ein Vierfachverhältnis der vier Datensätze mit den unterschiedlichen Konfigurationen konnte sichergestellt werden, dass alle durch Strahlführung oder Detektor erzeugten Asymmetrien sich in erster Ordnung aufheben. Um die unterschiedlichen Produktionsspektren von positiven und negativen Kaonen auszugleichen wurde in dieser Arbeit eine Ereignisgewichtung durchgeführt. Die Analyse wurde auf mögliche systematische Unsicherheiten untersucht. Dabei zeigte sich, dass die systematischen Unsicherheiten in der Analyse deutlich kleiner als der statistischer Fehler sind. Das Ergebnis der Messung des die CP-verletzende Asymmetrie beschreibenden Parameters $A_g$ ist: begin{equation} A_g= (1,2 pm 1,7_{mathrm{(stat)}} pm 0,7_{mathrm{(sys)}}) cdot 10^{-4}. end{equation} Diese Messung ist fast zehnmal genauer als bisherige Messungen und stimmt innerhalb ihrer Unsicherheit mit dem Standardmodell überein. Modelle, die eine größere CP-Verletzung in diesem Zerfall vorhersagen, können ausgeschlossen werden.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit beschäftigt sich mit der Suche nach dem Higgs-Boson.rn Dazu wurden die Daten des D0-Experimentes am Fermi National rn Accelerator Laboratory analysiert. Diese stammen ausrn Proton-Antiproton-Kollisionen, welche vom Tevatron-Beschleuniger beirn einer Schwerpunktsenergie von sqrt(s)=1.96 TeV erzeugtrn wurden. Der Datensatz umfasst mit einer integrierten Luminosität vonrn 9.7 fb^-1 den vollen RunII, welcher von April 2002 bisrn September 2011 aufgezeichnet wurde. Die Suche wurde für dreirn unterschiedliche Modelle durchgeführt: Das Standardmodell, einrn fermiophobes Higgs-Modell und ein Modell mit einer viertenrn Fermiongeneration. Zusätzlich wurde der Wirkungsquerschnitt derrn nicht resonanten WW-Produktion gemessen.rnrn Dazu wurden Daten mit einem Elektron, einem Myon und fehlenderrn Transversalenergie im Endzustand untersucht. Dieser Endzustand wirdrn beim Zerfall eines Higgs-Bosons in zwei W-Bosonen mit anschließendemrn Zerfall in ein Elektron, ein Myon und zwei Neutrinos erwartet undrn weist die größte Sensitivität für die Suche am Tevatron auf.rnrn Weder für das Standardmodell noch für die erweiterten Modelle konntern ein Hinweis auf ein Higgs-Signal gefunden werden. Deshalb wurdenrn obere Grenzen auf den Produktionswirkungsquerschnitt für diern einzelnen Modelle bestimmt. Die oberen Grenzen für Higgs-Bosonen imrn Rahmen des Standardmodells reichen von 28*sigma_SM für einrn Higgs-Boson mit einer Masse von 100 GeV bis zu einemrn Ausschluss des Standardmodell-Higgs-Bosons im Bereich zwischen 160rn und 167 GeV mit 95% Vertrauensniveau. Damit ist der inrn dieser Arbeit beschriebene Kanal der einzige Kanal amrn D0-Experiment, welcher eine ausreichend hohe Sensitivität erreicht,rn um allein ein Higgs-Boson im hohen Massenbereich auszuschließen. Fürrn ein Higgs-Boson mit 125 GeV Masse sind die Ergebnisse sowohlrn mit der Signal+Untergrund- als auch mit der Untergrund-Hypothesern kompatibel. rn Im Rahmen des fermiophoben Higgs-Modells wurden oberen Grenzenrn zwischen 2*sigma_FHM und 4*sigma_FHM imrn Massenbereich zwischen 100 und 170 GeV bestimmt. Für diern betrachteten Modelle mit einer vierten Fermiongeneration konnte einrn Higgs-Boson in einem weiten Massenbereich zwischen 135 undrn 220 GeV mit 95% Vertrauensniveau ausgeschlossen werden.rnrn Die Messung des Wirkungsquerschnitts der nicht-resonantenrn WW-Produktion ist die genaueste Messung fürrn sqrt(s)=1.96 TeV. Der gemessene Wirkungsquerschnitt beträgtrn sigma_ppbar->WW^em=11.1 +- 0.6 (stat.) +- 0.6 (syst.) pbrn und bestätigt damit die theoretische NLO-Vorhersage im Rahmen ihrerrn Unsicherheiten.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Digitales stochastisches Magnetfeld-Sensorarray Stefan Rohrer Im Rahmen eines mehrjährigen Forschungsprojektes, gefördert von der Deutschen Forschungsgesellschaft (DFG), wurden am Institut für Mikroelektronik (IPM) der Universität Kassel digitale Magnetfeldsensoren mit einer Breite bis zu 1 µm entwickelt. Die vorliegende Dissertation stellt ein aus diesem Forschungsprojekt entstandenes Magnetfeld-Sensorarray vor, das speziell dazu entworfen wurde, um digitale Magnetfelder schnell und auf minimaler Fläche mit einer guten räumlichen und zeitlichen Auflösung zu detektieren. Der noch in einem 1,0µm-CMOS-Prozess gefertigte Test-Chip arbeitet bis zu einer Taktfrequenz von 27 MHz bei einem Sensorabstand von 6,75 µm. Damit ist er das derzeit kleinste und schnellste digitale Magnetfeld-Sensorarray in einem Standard-CMOS-Prozess. Konvertiert auf eine 0,09µm-Technologie können Frequenzen bis 1 GHz erreicht werden bei einem Sensorabstand von unter 1 µm. In der Dissertation werden die wichtigsten Ergebnisse des Projekts detailliert beschrieben. Basis des Sensors ist eine rückgekoppelte Inverter-Anordnung. Als magnetfeldsensitives Element dient ein auf dem Hall-Effekt basierender Doppel-Drain-MAGFET, der das Verhalten der Kippschaltung beeinflusst. Aus den digitalen Ausgangsdaten kann die Stärke und die Polarität des Magnetfelds bestimmt werden. Die Gesamtanordnung bildet einen stochastischen Magnetfeld-Sensor. In der Arbeit wird ein Modell für das Kippverhalten der rückgekoppelten Inverter präsentiert. Die Rauscheinflüsse des Sensors werden analysiert und in einem stochastischen Differentialgleichungssystem modelliert. Die Lösung der stochastischen Differentialgleichung zeigt die Entwicklung der Wahrscheinlichkeitsverteilung des Ausgangssignals über die Zeit und welche Einflussfaktoren die Fehlerwahrscheinlichkeit des Sensors beeinflussen. Sie gibt Hinweise darauf, welche Parameter für das Design und Layout eines stochastischen Sensors zu einem optimalen Ergebnis führen. Die auf den theoretischen Berechnungen basierenden Schaltungen und Layout-Komponenten eines digitalen stochastischen Sensors werden in der Arbeit vorgestellt. Aufgrund der technologisch bedingten Prozesstoleranzen ist für jeden Detektor eine eigene kompensierende Kalibrierung erforderlich. Unterschiedliche Realisierungen dafür werden präsentiert und bewertet. Zur genaueren Modellierung wird ein SPICE-Modell aufgestellt und damit für das Kippverhalten des Sensors eine stochastische Differentialgleichung mit SPICE-bestimmten Koeffizienten hergeleitet. Gegenüber den Standard-Magnetfeldsensoren bietet die stochastische digitale Auswertung den Vorteil einer flexiblen Messung. Man kann wählen zwischen schnellen Messungen bei reduzierter Genauigkeit und einer hohen lokalen Auflösung oder einer hohen Genauigkeit bei der Auswertung langsam veränderlicher Magnetfelder im Bereich von unter 1 mT. Die Arbeit präsentiert die Messergebnisse des Testchips. Die gemessene Empfindlichkeit und die Fehlerwahrscheinlichkeit sowie die optimalen Arbeitspunkte und die Kennliniencharakteristik werden dargestellt. Die relative Empfindlichkeit der MAGFETs beträgt 0,0075/T. Die damit erzielbaren Fehlerwahrscheinlichkeiten werden in der Arbeit aufgelistet. Verglichen mit dem theoretischen Modell zeigt das gemessene Kippverhalten der stochastischen Sensoren eine gute Übereinstimmung. Verschiedene Messungen von analogen und digitalen Magnetfeldern bestätigen die Anwendbarkeit des Sensors für schnelle Magnetfeldmessungen bis 27 MHz auch bei kleinen Magnetfeldern unter 1 mT. Die Messungen der Sensorcharakteristik in Abhängigkeit von der Temperatur zeigen, dass die Empfindlichkeit bei sehr tiefen Temperaturen deutlich steigt aufgrund der Abnahme des Rauschens. Eine Zusammenfassung und ein ausführliches Literaturverzeichnis geben einen Überblick über den Stand der Technik.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fluoreszenzspektroskopie ist eine der wenigen Methoden, die eine Untersuchung von Zerfallsprozessen nach einer Anregung mit schmalbandiger Synchrotronstrahlung ermöglicht, wenn die Zerfallsprodukte nicht geladen sind. In der vorliegenden Arbeit wurden in erster Linie Anregungen des molekularen Wasserstoffs untersucht, die zur Erzeugung ungeladener aber angeregter Fragmente führten. Eine Bestimmung der absoluten Querschnitte für die drei möglichen Zerfallskanäle: Ionisation, Dissoziation und molekulare Fluoreszenz nach einer Anregung des Wasserstoffmoleküls im Anregungswellenlängenbereich zwischen 72,4 nm und 80 nm stand im ersten Teil der Arbeit im Vordergrund. Die oben erwähnten Zerfallskanäle und das Transmissionsspektrum wurden simultan aufgenommen und mit Hilfe des Lambert-Beerschen-Gesetzes absolut ermittelt. Die Verwendung der erhaltenen Querschnitte ermöglichte die Bestimmung der Dominanz der einzelnen Zerfallskanäle für 3p-D Pi-, 4p-D' Pi- und 5p-D’’ Pi-Zustände in Abhängigkeit von Vibrationsniveaus. Diese Zustände koppeln über eine nicht adiabatische Kopplung mit einem 2p-C Pi-Zustand, was zur Prädissoziation führt. Des Weiteren koppeln die angeregten Zustände zu höher liegenden Rydberg-Zuständen, damit wird eine starke Variation der Ionisationswahrscheinlichkeit in Abhängigkeit von Vibrationsniveaus verursacht. Die Stärke der Kopplung ist dabei entscheidend welcher der drei möglichen Zerfallswege dominant zur Relaxation des angeregten Zustandes beiträgt. Alle Werte wurden mit theoretisch ermittelten Daten aus MQDT- Berechnungen [Phys. Rev. A 82 (2010), 062511] verglichen und zeigten sehr gute Übereinstimmungen. Im zweiten Teil der Arbeit ist eine neue Apparatur für winkel- und zeitauflösende Photon-Photon-Koinzidenz entwickelt worden. Die zwei Off-Axis-Parabolspiegel, die das Herzstück der Apparatur bilden, parallelisieren die im Fokus abgestrahlte Emission des doppelt angeregten Wasserstoffmoleküls und projizieren diese auf jeweils einen Detektor. Die an zwei Strahlrohren bei BESSY II durchgeführten Messungen zeigten gute Übereinstimmungen mit den schon vorher veröffentlichten Daten: Messungen [J. Chem. Phys. 88 (1988), 3016] und theoretische Berechnungen [J. Phys. B: At Mol. Opt. Phys. 38 (2005), 1093-1105] der Koinzidenzrate in Abhängigkeit von der anregenden Strahlung. Durch die Bestimmung der gemessenen Zerfallszeit einzelner Prozesse konnten einzelne doppelt angeregte Zustände identifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optische Spektroskopie ist eine sehr wichtige Messtechnik mit einem hohen Potential für zahlreiche Anwendungen in der Industrie und Wissenschaft. Kostengünstige und miniaturisierte Spektrometer z.B. werden besonders für moderne Sensorsysteme “smart personal environments” benötigt, die vor allem in der Energietechnik, Messtechnik, Sicherheitstechnik (safety and security), IT und Medizintechnik verwendet werden. Unter allen miniaturisierten Spektrometern ist eines der attraktivsten Miniaturisierungsverfahren das Fabry Pérot Filter. Bei diesem Verfahren kann die Kombination von einem Fabry Pérot (FP) Filterarray und einem Detektorarray als Mikrospektrometer funktionieren. Jeder Detektor entspricht einem einzelnen Filter, um ein sehr schmales Band von Wellenlängen, die durch das Filter durchgelassen werden, zu detektieren. Ein Array von FP-Filter wird eingesetzt, bei dem jeder Filter eine unterschiedliche spektrale Filterlinie auswählt. Die spektrale Position jedes Bandes der Wellenlänge wird durch die einzelnen Kavitätshöhe des Filters definiert. Die Arrays wurden mit Filtergrößen, die nur durch die Array-Dimension der einzelnen Detektoren begrenzt werden, entwickelt. Allerdings erfordern die bestehenden Fabry Pérot Filter-Mikrospektrometer komplizierte Fertigungsschritte für die Strukturierung der 3D-Filter-Kavitäten mit unterschiedlichen Höhen, die nicht kosteneffizient für eine industrielle Fertigung sind. Um die Kosten bei Aufrechterhaltung der herausragenden Vorteile der FP-Filter-Struktur zu reduzieren, wird eine neue Methode zur Herstellung der miniaturisierten FP-Filtern mittels NanoImprint Technologie entwickelt und präsentiert. In diesem Fall werden die mehreren Kavitäten-Herstellungsschritte durch einen einzigen Schritt ersetzt, die hohe vertikale Auflösung der 3D NanoImprint Technologie verwendet. Seit dem die NanoImprint Technologie verwendet wird, wird das auf FP Filters basierende miniaturisierte Spectrometer nanospectrometer genannt. Ein statischer Nano-Spektrometer besteht aus einem statischen FP-Filterarray auf einem Detektorarray (siehe Abb. 1). Jeder FP-Filter im Array besteht aus dem unteren Distributed Bragg Reflector (DBR), einer Resonanz-Kavität und einen oberen DBR. Der obere und untere DBR sind identisch und bestehen aus periodisch abwechselnden dünnen dielektrischen Schichten von Materialien mit hohem und niedrigem Brechungsindex. Die optischen Schichten jeder dielektrischen Dünnfilmschicht, die in dem DBR enthalten sind, entsprechen einen Viertel der Design-Wellenlänge. Jeder FP-Filter wird einer definierten Fläche des Detektorarrays zugeordnet. Dieser Bereich kann aus einzelnen Detektorelementen oder deren Gruppen enthalten. Daher werden die Seitenkanal-Geometrien der Kavität aufgebaut, die dem Detektor entsprechen. Die seitlichen und vertikalen Dimensionen der Kavität werden genau durch 3D NanoImprint Technologie aufgebaut. Die Kavitäten haben Unterschiede von wenigem Nanometer in der vertikalen Richtung. Die Präzision der Kavität in der vertikalen Richtung ist ein wichtiger Faktor, der die Genauigkeit der spektralen Position und Durchlässigkeit des Filters Transmissionslinie beeinflusst.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.