15 resultados para Darßer Schwelle
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Im Rahmen dieser Arbeit wurde das an derDrei-Spektrometer-Anlage derA1-Kollaboration des Institutes für Kernphysik derUniversität Mainzdurchgeführte Koinzidenz-Experiment zur Elektroproduktionvon neutralenPionen nahe der Schwelle am Deuteron bei einemViererimpulsübertrag vonq^2=-0.1 GeV^2/c^2 vorgestellt. Diese Messung stellt denerstenexperimentellen Zugang zum longitudinalen Anteil desWirkungsquerschnittes dieser Reaktion überhaupt dar. ZurSeparationder verschiedenen Wirkungsquerschnittsanteile wurden Datenbei dreiPolarisationen des virtuellen Photons bis 4 MeV oberhalb derPionproduktionsschwelle genommen. Eine besondereHerausforderung ergabsich aus der mit beta=0.16 geringsten bisher mit demDetektorsystem nachgewiesenen Teilchengeschwindigkeit derDeuteronenund dem erstmaligen kohärenten Nachweis des Deuterons. Aus den in zwei Strahlzeiten gewonnenen Daten wurden mitHilfe einerRosenbluth-Separation der longitudinale und transversaleAnteil desWirkungsquerschnittes ermittelt. Unter Verwendung aller 144Datenpunkte derdifferentiellen Wirkungsquerschnitte konnten bei schwachenAnnahmen für dieImpulsabhängigkeit der p-Wellen-Beiträge die Beträge ders-Wellen-Amplituden Ed und Ld an der Schwelle extrahiertwerden: |Ed|<0.68*10^(-3)/M_pi+ und |Ld|=(0.81+/-0.18)*10^(-3)/M_pi+ Die experimentell bestimmten Werte liegen weit unter denVorhersagen der chiralen Störungstheorie. Ausgedrückt durchdens-Wellen-Wirkungsquerschnitt a_0 entspricht der gemesseneWert nurca. 1/6 der Vorhersage. Die gemessenen Winkelverteilungenderdifferentiellen Wirkungsquerschnitte können als wichtigeGrundlage zurIntegration der bisher in den Modellen nicht enthaltenenp-Wellen-Beiträge dienen.
Photoproduktion neutraler Pionen am Proton mit linear polarisierten Photonen im Bereich der Schwelle
Resumo:
Diese Arbeit beschreibt ein Experiment zur Photoproduktionneutraler Pionen am Proton im Schwellenbereich. DurchVerwendung linear polarisierter Photonen konnte neben dentotalen und differentiellen Wirkungsquerschnitten zum erstenMal die Photonasymmetrie nahe der Schwelle gemessen werden.Besonderes Interesse galt dem aus diesen physikalischenObservablen bestimmbaren s-Wellen-Multipol E0+ sowie der erstmaligen Bestimmung aller drei p-Wellen-KombinationenP1, P2 und P3 im Bereich der Schwelle.Das Experiment wurde 1995/1996 am ElektronenbeschleunigerMAMI (Mainzer Mikrotron) der Universität Mainz durchgeführt.Durch Verwendung eines Diamanten als Bremsstrahltarget fürdie Elektronen wurden über den Prozeß der kohärentenBremsstrahlung linear polarisierte Photonen erzeugt. DieEnergie der Photonen wurde über die Messung der Energie der gestreuten Elektronen in der MainzerPhotonenmarkierungsanlage bestimmt. Der Detektor TAPS, eineAnordnung aus 504 BaF2-Modulen, war um einFlüssigwasserstofftarget aufgebaut. In den Modulen wurdendie im Target produzierten neutralen Pionen über ihrenZerfall in zwei Photonen nachgewiesen.Die totalen und differentiellen Wirkungsquerschnitte wurdenim Energiebereich zwischen der Schwelle von 144.7 MeV und168 MeV gemessen. Die erstmals gemessene Photonasymmetriefür 159.5 MeV ist positiv und hat einen Wert von+0.217+/-0.046 für einen Polarwinkel von 90 Grad. Der Multipol E0+ und die drei p-Wellen-Kombinationen wurden andie physikalischen Observablen über zwei unterschiedlicheMethoden angepaßt, die übereinstimmende Ergebnisselieferten. Die Vorhersagen der Niederenergietheoreme derchiralen Störungstheorie für P1 und P2 stimmen beiEinbeziehung der statistischen und systematischen Fehler mitden experimentellen Werten überein.
Resumo:
Das Experiment zur Überprüfung der Gerasimov-Drell-Hearn(GDH)-Summenregel am Mainzer Mikrotron diente zur Messunghelizitätsabhängiger Eigenschaften der Photoproduktion amProton. Hierbei konnten neben den totalen Photoabsorptionswirkungsquerschnitten auch Querschnitte partieller Kanäle der Einpion-, Zweipion- und Eta-Produktion bestimmt werden. Für die möglichen Doppel-Pion-Reaktionen sind zur Zeit nur wenig Information vorhanden. Daher sind die Reaktionsmechanismen der Doppel-Pion-Photoproduktion weitgehend noch unverstanden. Aus diesem Grund ist die Untersuchung weiterer Observablenerforderlich. Die Helizitätsabhängigkeit stellt eine solcheneue Observable dar und kann dadurch gemessen werden, daßein zirkular polarisiertes Photon mit einem longitudinalpolarisierten Nukleon wechselwirkt. Der Photonspin beträgt1 und der Fermionenspin des Nukleons beträgt 1/2.Die Spins koppeln zu 3/2 und 1/2. Dies liefert diehelizitätsabhängigen Wirkungsquerschnitte.Diese Dissertation beschreibt den Aufbau des Mainzer GDH-Experiments und die technische Realisation der Messung helizitätsabhängiger Photoabsorptionswirkungsquerschnitte. Die Helizitätsabhängigkeit der doppelt geladenen Doppel-Pion-Photoproduktion am Proton wurde anhand der gemessenen Daten untersucht. Diese Reaktion ist ein Zweistufenprozeß, wobei das angeregte Nukleon resonant oder nicht-resonant in die Endzustandsteilchen zerfällt. Durch die helizitätsabhängigen Daten wurden Freiheitsgradein der Doppel-Pion-Photoproduktion eingeschränkt, wodurch eine Verbesserung der Modelle der Gent-Mainz- und der Valencia-Gruppe ermöglicht wurde. Die im Rahmen dieser Arbeit ermittelten Daten haben zusätzlich eine Motivation für weitere Interpretationsansätze durch die genanntenTheoriegruppen geschaffen.
Resumo:
Die Messung der Elektroproduktion geladener Pionen in der Nähe der Produktionsschwelle ermöglicht die Bestimmung des axialen Formfaktors des Nukleons G_A(Q²) und aus seinem Verlauf die Extraktion der axialen Masse M_A. Diese Größe kann im Rahmen der chiralen Störungstheorie vorhergesagt werden, so daß ihre experimentelle Bestimmung eine Überprüfung der theoretischen Beschreibung des Nukleons erlaubt. Im Rahmen dieser Arbeit wurden die bereits am Institut für Kernphysik der Universität Mainz in der A1-Kollaboration durchgeführten Messungen der Reaktion H(e,e'Pi+)n bei einer Schwerpunktsenergie von W = 1125 MeV und einem Vierer- impulsübertrag Q² von 0.117, 0.195 und 0.273 (GeV/c)² durch eine weitere Messung bei Q² = 0.058 (GeV/c)² ergänzt. In einer zweiten Meßperiode wurden zusätzlich die Messungen für die Q²-Werte von 0.117 und 0.195 (GeV/c)² wiederholt. Für alle Q²-Werte wurden Daten bei mindestens drei verschiedenen Werten der Polarisation des virtuellen Photons genommen, so daß für alle Messungen eine Rosenbluthseparation durchgeführt werden konnte, um den transversalen und den longitudinalen Anteil des Wirkungsquerschnitts zu bestimmen. Das Ergebnis für Q² = 0.195 (GeV/c)² stimmt im Rahmen der Fehler mit dem alten Ergebnis überein, für Q² = 0.117 (GeV/c)² ergibt sich eine deutliche Abweichung des longitudinalen Anteils. Das Ergebnis für Q² = 0.058 (GeV/c)² liegt unter der aus den alten Messungen gewonnenen Vorhersage. Der induzierte pseudoskalare Formfaktor des Nukleons G_P(Q²) kann ebenfalls in der Pionelektroproduktion bestimmt werden, wenn die Messung bei einer Schwerpunktsenergie nur wenige MeV über der Produktionsschwelle stattfindet. Eine solche Messung erfordert den Nachweis von Pionen mit kinetischen Energien unter 35 MeV, für den die in der A1-Kollaboration vorhandenen Spektrometer nicht geeignet sind. Im apparativen Teil der Arbeit wurde daher ein Szintillatorhodoskop für ein dediziertes Pionspektrometer mit kurzer Weglänge gebaut und getestet. Außerdem wurden für dieses sogenannte Short-Orbit-Spektrometer drei Kollimatoren entworfen und eingebaut.
Resumo:
Diese Arbeit befasst sich mit der photoinduzierten Erzeugung neutraler Pionen, sehr nahe an der Schwellenenergie. Dabei werden zwei Ziele verfolgt: Zum einen die Überprüfung von Vorhersagen dieser effektiven Theorien und Modelle, zum anderen werden hier erstmals alle relevanten Partialwellenamplituden modellunabhängig aus gemessenen Observablen bestimmt. Diese Methode soll in Zukunft auch bei höheren Energien im Bereich der Nukleonresonanzen Anwendung finden. rnrnKonkret wird die Durchführung und Analyse eines Experiments vorgestellt, welches am Mainzer Mikrotron (MAMI) in den Jahren 2010 bis 2013 mit zirkular polarisiertem Photonenstrahl stattfand. Der Photonenstrahl wurde an einer Anlage zur Erzeugung energiemarkierter Bremsstrahlung aus dem Elektronenstrahl von MAMI gewonnen. Zum Nachweis der Reaktionsprodukte diente das hermetische 4pi CB/TAPS-Detektorsystem. Erstmalig standen bei derartigen Messungen auch transversal polarisierte Protonen zur Verfügung. Dazu wird Butanol in einer speziellen Apparatur dynamisch polarisiert. Molekularer Wasserstoff lässt sich aufgrund der para-Konfiguration nicht polarisieren. Wegen der Verwendung von Butanol als Targetmaterial, bei dem weniger als 5% aller erzeugten Pionen an polarisierten Protonen produziert wurden, ist die Behandlung des Untergrunds eine zentrale Aufgabe. rnrnEs werden zwei Methoden der Untergrundseparation vorgestellt, wovon die bessere in der Analyse angewendet wurde. Abschließend findet eine ausführliche Bewertung systematischer Fehler statt.rnrnDie erstmalige Verwendung transversal polarisierter Protonen ermöglicht den Zugang zu bisher nicht gemessenen Spin"=Freiheitsgraden. In Kombination mit einem komplementären Vorläufer-Experiment aus dem Jahr 2008 mit linear polarisiertem Photonenstrahl konnten aus den gewonnenen Daten erstmals alle komplexen s- und p-Partialwellenamplituden modellunabhängig bestimmt werden. rnrnDarüber hinaus wurden im Rahmen dieser Arbeit wesentliche Verbesserungen am apparativen Aufbau erzielt. Beispiele sind ein Elektronenstrahl-Polarimeter, ein zellularer CB-Multiplizitätstrigger, sowie signifikante Verbesserungen der Datennahmeelektronik und des Triggersystems, die teilweise in dieser Arbeit vorgestellt werden.
Resumo:
Eine detaillierte geochemische und geochronologische Studie an Gesteinen der Monte Rosa Decke (MR; Westalpen) wurde durchgeführt. Die MR wurde während der alpinen Orogenese zunächst eklogitfaziell und nachfolgend grünschieferfaziell überprägt.Eine detaillierte U-Pb geochronologische Studie an Zirkonen und Monaziten des MR Granits ergab ein Permisches Intrusionsalter (270 ± 4 Ma). Der MR Granit gehört zu den post-variszischen magmatischen Einheiten, welche die Instabilität der variszischen kontinentalen Kruste andeuten. Für die MR kann eine paläogeographische Position als Teil der 'Briançonnais-Schwelle' angenommen werden.Innerhalb des MR Granits treten Talk-Kyanit-Chloritoid-Gesteine ('Weißschiefer') auf. Diese stellen wesentliche Indikatoren für eine alpine Hochdruckmetamorphose in der MR dar. Massenbilanzberechnungen wurden durchgeführt, um den Massentransfer zu quantifizieren, welcher für die Bildung eines Weißschiefers aus einem granitischen Protolith notwendig ist. Ein Modell für die Entwicklung der Weißschiefer wurde entwickelt.Es wurde eine in-situ 40Ar/39Ar UV-Laser-Ablationsstudie an Hellglimmern der alpinen Mineralparagenese durchgeführt. Sie ergab eine heterogene Altersverteilung. Diese Alter können durch Glimmerrekristallisation unter relativ 'trockenen' hochdruckmetamorphen Bedingungen begleitet von partiellem Verlust von radiogenem Argon während der alpinen Metamorphose erklärt werden. Eine ähnlich komplexe Entwicklung mit partieller Homogenisierung des Isotopensystems kann in der Strontium-Isotopie beobachtet werden. Diese Isotopenstudien liefern Hinweise auf das Schließverhalten von Isotopensystemen unter hochdruckmetamorphen Bedingungen.
Resumo:
In der vorliegenden Dissertation wurden die Formfaktoren desNukleons in einer relativistischen Formulierung der chiralenStörungstheorie bis zur chiralen Ordnung O(q^4) berechnet. Im Einzelnen haben wir den skalaren Formfaktor, dieelektromagnetischen Formfaktoren F_1 und F_2 bzw. G_E und G_M, die beiden axialen Formfaktoren G_A und G_P und denPion-Nukleon-Formfaktor G_pi untersucht. Dabei kam ein neuesRenormierungsschema zur Anwendung, das in Zusammenarbeit mitGegelia, Japaridze und Scherer entwickelt wurde. Das Ziel der neuen Methode bestand darin, ein konsistentes chirales Zählschema für renormierte Diagramme der relativistischen Theorie zu entwickeln. Zu diesem Zweck werden über das MS-Schema hinausgehend zusätzlich reguläre Terme abgezogen und in den Niederenergiekonstanten der allgemeinsten effektiven Lagrange-Dichte absorbiert. Als Folge respektieren auch Schleifendiagramme mit inneren Nukleonlinien ähnlich wie im mesonischen Sektor ein chirales Zählschema. Die Ergebnisse wurden mit denen aus der Infrarotregularisierung von Becher und Leutwyler und bis zur Ordnung O(q^3) auch mit denen aus der chiralen Störungstheorie für schwere Baryonen (HBChPT) verglichen. Der zweite Teil der Arbeit beschäftigte sich mit der Frage, ob der axiale Formfaktor in der Pionelektroproduktion nahe der Schwelle bestimmt werden kann. Dazu haben wir ein phänomenologisches Modell benutzt, das einerseits alle Symmetrien der Lagrange-Dichte der QCD respektiert, d.h. insbesondere die chirale Symmetrie und ihre spontane Brechung, andererseits relativ einfach nachzuvollziehendeRechnungen beinhaltet. Das Modell basierte auf denLagrange-Dichten der chiralen Störungstheorie mit derEinschränkung, dass wir keine Schleifengraphen berechnet haben. Wir benutzten diese Baumgraphennäherung, da die Schleifengraphen chirale Korrekturen zu unseren Ergebnissen liefern, die im Rahmen der HBChPT von Bernard, Kaiser und Meißner berechnet wurden und unter Kontrolle sind. Als ein Test des Modells haben wir die axialen Formfaktoren des Nukleons bestimmt und eine auf die chirale Symmetrie zurückgehende Beziehung zwischen diesen und demPion-Nukleon-Formfaktor überprüft. Der Hauptbestandteil dieses Teils der Arbeit bestand aus dem Test der so genannten Adlerschen Relation, die in Form einer chiralen Ward-Identität drei Greensche Funktionen miteinander verbindet. Wir haben explizit verifiziert, dass die Abhängigkeit der Pionelektroproduktionsamplitude vomaxialen Formfaktor eine direkte Konsequenz aus der chiralenSymmetrie ist. Durch einen Vergleich mit den Ergebnissen vonHaberzettl konnten wir schießlich feststellen, dass die sogenannte Eichableitungsmethode die chirale Symmetrie nichtrespektiert.
Resumo:
Grundsätzlich bestätigt sich in der vorliegenden Untersuchung die wichtige Bedeutung der bakteriellen Ätiologie der akuten Exazerbation der COPD. Bei 62,4 % aller Patienten wurde der Nachweis von Pathogenen in der Bakterienkultur geführt.Auch die Art der gefundenen Spezies deckt sich in Abhängigkeit vom Patientenkollektiv in etwa mit etablierten Erkenntnissen. Dabei ist das relativ häufige Vorkommen von gramnegativen Enterobakterien und Pseudomonas spp. in einem Setting mit schwerer Exazerbation bei hospitalisierten Patienten und fortgeschrittener Grunderkrankung hervorzuheben.Die hohe Prävalenz von Haemophilus parainfluenzae gibt Anlaß, über die ungeklärte Rolle dieses Bakteriums als pathogener Verursacher einer AECOPD weitere Forschungen anzustellen, wie in jüngster Zeit mit überraschenden Ergebnissen geschehen. Immunologische Studien zur Antikörperbildung bei Infektion mit diesem Bakterium sowie neueste Erkenntnisse über seine virulenten Eigenschaften auf Bronchusebene lassen die Vermutung zu, dass Haemophilus parainfluenzae zu den auslösenden Agenzien bei AECOPD zählen darf, was die Resultate dieser Arbeit bekräftigen würde.Für alle isolierten Spezies gilt dennoch, dass der positive Nachweis per se aufgrund der limitierten Aussagekraft der verwendeten Untersuchungsmethoden nicht als beweisend für eine pathogenetische Bedeutung gewertet werden darf.Künftige Studien sollten sich daher mit der Epidemiologie der Kolonisation respektive Infektion befassen und die Prozesse beleuchten, die einerseits eine neutrophile Inflammation auf zellulärer Ebene bewirken und andererseits dazu führen, dass die lokale Wirtsabwehr durch Bakterien unterlaufen wird.Die Patientenpopulationen mit bakterieller und nicht bakterieller Genese der akuten Exazerbation unterschieden sich hinsichtlich der Verteilung auf die Schweregrade der zugrundeliegenden COPD. Entsprechend zeigten die Patienten mit pathogenem Kulturbefund eine deutlichere Einbuße an Lungenfunktion, mehr Exazerbationen, häufiger eine Ventilationsinsuffizienz und eine längere Liegedauer.Patientencharakteristika, aus denen möglicherweise Kriterien zur Differenzierung zwischen einer bakteriellen Infektion und anderen Ursachen abgeleitet werden könnten, betrafen einen reduzierten Body-Mass-Index, eine höhere Komorbiditätstrate und eine größere Anzahl an Packyears.Keine relevanten Unterschiede waren bei der geschlechtsspezifischen Verteilung, der Erkrankungsdauer und dem aktuellen Rauchverhalten auszumachen.Eine erhöhte Serumkonzentration des C-reaktiven Proteins war mit einer Infektexazerbation assoziiert und ist mit Einschränkung als orientierendes Kriterium zur Differenzierung von Patienten geeignet, welche von einer antibiotischen Therapie profitieren könnten. Dabei konnte für einen CRP-Schwellenwert von 0,5 mg/dl eine hohe Sensitivität von 93 % und ein positiver Vorhersagewert von 65 % bei allerdings sehr geringer Spezifität von 15 % ermittelt werden. Bei willkürlicher Anhebung der Schwelle (CRP > 5 mg/dl) eignete sich die Messung der CRP-Konzentration unter Berücksichtigung der genannten Limitationen als richtungsweisender Marker für eine Infektexazerbation (Sensitivität 63 %, Spezifität 59 %, positiver Vorhersagewert 72 %, negativer Vorhersagewert 49 %). Darüber hinaus präsentierte sich das CRP als bewährter Verlaufsparameter unter Therapie.Von zentraler Bedeutung ist eine effektive Kategorisierung der Patienten anhand der COPD-Stadieneinteilung, da sowohl bakteriologische Ergebnisse wie auch patientenbezogene oder funktionelle Daten häufig einen Zusammenhang mit der Erkrankungsschwere aufwiesen.Eine diesbezügliche Evaluierung der jüngsten Klassifikation nach WHO/GOLD fiel positiv aus.
Resumo:
Die Messung der Stärke von Empfindungen hat in der Psychologie eine lange Tradition, die bis in die Zeit der Entstehung der Psychologie als eine eigenständige Wissenschaft gegen Ende des 19. Jahrhunderts zurückreicht. Gustav Theodor Fechner verband die Beobachtung Webers der Konstanz des Koeffizienten des eben merklichen Unterschieds zu der Vergleichsintensität (sog. "Weber-Quotient") mit der Annahme einer sensorischen Schwelle, und entwickelte daraus erstmals eine Skala für die Stärke von Empfindungen. Die Fechner-Skala verwendet die Anzahl sukzessiver Schwellenschritte als natürliche, psychologische Einheit. Die Stärke einer Empfindung für eine gegebene Reizintensität wird ausgedrückt als die Anzahl von Schwellenschritten, die man gehen muss, um von keiner Empfindung bis zur in Frage stehenden Empfindung zu gelangen. Die Funktion, die den Zusammenhang von Reizintensität und der Anzahl nötiger Schwellenschritte beschreibt, ist stets logarithmisch und über sukzessive Schwellenmessungen für Reize aus den verschiedensten Sinnesmodalitäten bestimmbar. Derart sich ergebende Skalierungen heißen "indirekt", weil die in Frage stehende Reizintensität selbst nicht von der Urteilsperson bewertet wird. Intensitäten sind vom Urteiler nur mit anderen Intensitäten in Bezug auf ein "stärker" oder "schwächer", also ordinal, zu vergleichen. Indirekte Skalierungsmethoden eignen sich insbesondere, wenn der Reizeindruck flüchtig und von der absoluten Stärke her schwer durch den Urteiler zu quantifizieren ist. Ein typisches Beispiel hierfür ist die Auffälligkeit (Salienz) von visuellen Objekten, die in zufällig wechselnde Hintergründe eingebettet sind und dem Betrachter nur als ein rasches raumzeitliches Aufblitzen präsentiert werden. Die Stärke des Unterschieds in Merkmalen wie Helligkeit, Farbe, Orientierung, Schattierung, Form, Krümmung, oder Bewegung bestimmt das Ausmaß der Salienz von Objekten. Obschon eine Fülle von Arbeiten existiert zu der Frage, welche Merkmale und deren Kombinationen ohne Wissen des Ortes ihrer Präsentation automatisch starke Salienz ("Pop-Out") erzeugen, existieren bislang keine systematischen Versuche, die Salienz von Merkmalen für einen weiten Bereich von Merkmalsunterschieden zu erfassen und vergleichbar zu machen. Indirekte Skalierungen liegen vor für die Merkmale Kontrast (Legge und Foley, 1980) und Orientierung (Motoyoshi und Nishida, 2001). Ein Vergleich der Salienz über mehrere Merkmale und der Nachweis, dass die Salienz eine eigene, von der Merkmalsdimension unabhängige sensorische Qualität ist, steht aber bislang aus. In der vorliegenden Arbeit wird gezeigt, dass der Unterschied von Objekten zur einbettenden Umgebung hinsichtlich visueller Merkmale zu Salienz führt und diese Salienz unabhängig von dem sie erzeugenden Merkmal der Stärke nach skalierbar ist. Es wird ferner gezeigt, dass die Einheiten der für zwei Merkmale erhobenen indirekten Skalierungsfunktionen in einem absoluten Sinne gleich sind, solange sichergestellt ist, dass (i) keine alternativen Hinweisreize existieren und nur der reine Merkmalsunterschied von Objekt und Umgebung bewertet wird und (ii) das sensorische Rauschen in den aktivierten Merkmalskanälen für beide Merkmale gleich ist. Für diesen Aufweis wurden exemplarisch die Merkmale Orientierung und Ortsfrequenz ausgewählt und die Salienz ihrer Merkmalskontraste über Naka-Rushton-Funktionen, gewonnen aus den zugrundeliegenden Salienz-Inkrementschwellenmessungen, indirekt skaliert. Für das Merkmal Ortsfrequenz liegt hiermit erstmals eine indirekte Skalierung vor. Hierfür musste eine spezielle Messtechnik entwickelt werden, die die Bewertung reiner Ortsfrequenzunterschiede, frei von konfundierenden absoluten Ausprägungen der Ortsfrequenzen, sicherstellt. Die Methode ist in Kapitel 7 dargestellt. Experimente, die die konfundierende Wirkung absoluter Merkmalsausprägungen auf die Salienzmessung demonstrieren, sind in Kapitel 6 dargestellt. In Kapitel 8 findet sich ein empirischer Abgleich der Ergebnisse von Inkrement- und Dekrementschwellenmessungen, eine Messtechnik, die zur Erfassung von Unterschiedsschwellen im Extrembereich der Orientierungsunterschiede von 90° nötig ist. Kapitel 9 enthält den empirischen Aufweis der Transitivität der Gleichheitsrelation für Salienzmessungen von Orientierung und Ortsfrequenz durch Abgleich mit einem dritten Merkmal und erbringt damit den Beleg der merkmalsunabhängigen Erfassung von Auffälligkeit über die indirekte Skalierungsmethodik. Ferner wird dort die Wirksamkeit der Grundsalienz von Mustern, gegeben über externes Rauschen in den Merkmalen (sog. "Merkmalsjitter") für die Verschiebung des Nullpunktes der Skalierungsfunktion aufgezeigt. Im letzten Experiment (Kapitel 10) wird dann die Skalierung von Orientierung und Ortsfrequenz bei gleicher Grundsalienz der Muster verglichen und gezeigt, dass beide Skalen in einem absoluten Sinne gleiche Einheiten aufweisen (also gleiche Skalenzahlen gleiche sensorische Auffälligkeiten anzeigen, obwohl sie von verschiedenen Merkmalen stammen), wenn der Effekt des sensorischen Rauschens, der im Merkmal Orientierung nicht über die verschiedenen Schwellenschritte konstant ist, kompensiert wird. Die Inkonstanz des Effektes des sensorischen Rauschens im Merkmal Orientierung wird über die Veränderung der Steigung der psychometrischen Präferenzfunktion für die Vergleichsurteile der Orientierungssalienz für eine fest vorgegebene Ortsfrequenzsalienz greifbar, und der Effekt der Steigungsveränderung kompensiert exakt die Nichtlinearität in der für beide Merkmale erhobenen Salienz-Matchingfunktion. Im letzten Kapitel wird ein Ausblick auf eine mögliche Modellierung der Salienzfunktionen über klassische Multikanal-Feedforwardmodelle gegeben. In den ersten fünf Kapiteln sind einführend die Gebiete der indirekten Skalierung, der Merkmalssalienz und der Texturtrennung im menschlichen visuellen System dargestellt.
Resumo:
Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.
Resumo:
Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.
Resumo:
Die Untersuchung von halbleitenden Materialien auf der Basis von organischen Molekülen stellt ein Gebiet der angewandten Forschung an der Schwelle zur industriellen Nutzung dar. Geringes Gewicht und hohe mechanische Flexibilität ermöglichen völlig neue Produkte, die mit anorganischen Halbleitern nicht zu realisieren sind. Die Herstellung von Bauteilen wie Transistoren, Solarzellen oder Leuchtdioden aus organischen Materialien ist ein komplexes Gebiet, das einer Vielzahl von unterschiedlichen Optimierungen bedarf, um eine konkurrenzfähige Leistung zu erreichen. Die synthetische organische Chemie bietet vielfältige Möglichkeiten, mit maßgeschneiderten Lösungen zum Optimierungsprozess beizutragen. Zum einen können neue aktive Materialien hergestellt werden mit besserer Leistung und leichterer Verarbeitbarkeit. Zum anderen sind Substanzen zugänglich, die z.B. bei der Ladungsträgerinjektion hilfreich sein können.rnIn dieser Arbeit wurde an beiden dieser Fronten gearbeitet. Dabei lag die Entwicklungsstrategie darin, ausgedehnte π-konjugierte Moleküle herzustellen, die entweder besonders elektronenarme Akzeptoren oder elektronenreiche Donoren darstellen. Die genaue Kontrolle der elektronischen Niveaus stellt einen wichtigen Bestandteil dar, um niedrige elektrische Kontaktbarrieren zu Metallen zu erreichen und ausreichend stabile Materialien zu erreichen.rnDer erste Fokus der Arbeiten lag in der Funktionalisierung von Coronen. Dieser PAH stellt einen guten Kompromiss bezüglich seiner Größe dar: Er ist groß genug, um Diffusion in andere Schichten von Bauteilen zu vermeiden, aber nicht zu groß, um Verarbeitung durch Vakuumsublimation zu ermöglichen. Bislang sind praktisch keine Coronen-Derivate in der Literatur beschrieben, weshalb eine neue Synthese entwickelt werden musste, die die Einführung starker Donor- und Akzeptorfunktionalitäten erlaubt. Die photochemische Cyclodehydrierung von substituierten [2.2.2]paracyclophan-trienen stellte sich als hervorragende Möglichkeit heraus, dies zu bewerkstelligen. Es wurde eine Reihe von methoxy-substitutierten Coronenen mit unterschiedlicher Symmetrie hergestellt. Mittels optischer Spektroskopie konnte gezeigt werden, dass Methoxygruppen wenig Einfluss auf die elektronischen Eigenschaften von Coronen haben. Unter Spaltung der Methylether und anschließender Oxidation allerdings sind Coronenketone zugänglich, welche bis zu drei α-Diketongruppen besitzen. Diese Moleküle sind enorm starke Akzeptoren, was durch Cyclovoltammetrie und Vergleich zu anderen Akzeptoren eindrucksvoll gezeigt werden konnte. Die Sublimation dieses Akzeptors auf die Oberfläche von Metallen zeigt einen dramatischen Einfluss auf die Austrittsarbeit dieses Metalls, was zur Herstellung eines ohmschen Kontakts zu organischen Halbleitern von außerordentlichem Nutzen ist. rnDen zweiten Teil der Arbeit bilden Benzodithiophen enthaltende Polymere, die für den Einsatz als aktive Komponente in elektronischen Bauteilen entwickelt wurden. Nach systematischer Strukturoptimierung wurde ein Polymer enthalten, welches in einem Feldeffekt-Transistor auf Standard-Silizium-Substraten Ladungsträger-Mobilitäten über 0,1 cm2/Vs erreicht mit großer Reproduzierbarkeit und ausgezeichneter Transistor-Charakteristik. Es konnte gezeigt werden, dass die durch die Monomergeometrie erzeugte Kurvung des Polymers zu einem optimalen Kompromiss aus Löslichkeit und effektiver Packung darstellt. Auf für industrielle Anwendungen besonders interessanten polymer-basierten Substraten wurde eine noch erheblich bessere Leistung gezeigt. Auf einem PET-Substrat wurden Feldeffekt-Mobilitäten von 0,5 cm2/Vs gemessen mit überzeugenden Reproduzierbarkeit und Stabilität.rnDamit konnte in der Arbeit ein bedeutender Beitrag zur Weiterentwicklung von Materialien für den Einsatz in elektronischen Bauteilen geleistet werden. Die Substanzen versprechen noch erhebliches Potenzial nach intensiver Optimierung und wurden deshalb zum Patent angemeldet.rn
Resumo:
Among all possible realizations of quark and antiquark assembly, the nucleon (the proton and the neutron) is the most stable of all hadrons and consequently has been the subject of intensive studies. Mass, shape, radius and more complex representations of its internal structure are measured since several decades using different probes. The proton (spin 1/2) is described by the electric GE and magnetic GM form factors which characterise its internal structure. The simplest way to measure the proton form factors consists in measuring the angular distribution of the electron-proton elastic scattering accessing the so-called Space-Like region where q2 < 0. Using the crossed channel antiproton proton <--> e+e-, one accesses another kinematical region, the so-called Time-Like region where q2 > 0. However, due to the antiproton proton <--> e+e- threshold q2th, only the kinematical domain q2 > q2th > 0 is available. To access the unphysical region, one may use the antiproton proton --> pi0 e+ e- reaction where the pi0 takes away a part of the system energy allowing q2 to be varied between q2th and almost 0. This thesis aims to show the feasibility of such measurements with the PANDA detector which will be installed on the new high intensity antiproton ring at the FAIR facility at Darmstadt. To describe the antiproton proton --> pi0 e+ e- reaction, a Lagrangian based approach is developed. The 5-fold differential cross section is determined and related to linear combinations of hadronic tensors. Under the assumption of one nucleon exchange, the hadronic tensors are expressed in terms of the 2 complex proton electromagnetic form factors. An extraction method which provides an access to the proton electromagnetic form factor ratio R = |GE|/|GM| and for the first time in an unpolarized experiment to the cosine of the phase difference is developed. Such measurements have never been performed in the unphysical region up to now. Extended simulations were performed to show how the ratio R and the cosine can be extracted from the positron angular distribution. Furthermore, a model is developed for the antiproton proton --> pi0 pi+ pi- background reaction considered as the most dangerous one. The background to signal cross section ratio was estimated under different cut combinations of the particle identification information from the different detectors and of the kinematic fits. The background contribution can be reduced to the percent level or even less. The corresponding signal efficiency ranges from a few % to 30%. The precision on the determination of the ratio R and of the cosine is determined using the expected counting rates via Monte Carlo method. A part of this thesis is also dedicated to more technical work with the study of the prototype of the electromagnetic calorimeter and the determination of its resolution.
Resumo:
In this thesis mainly two alternating indenofluorene-phenanthrene copolymers were investigated with a variety of spectroscopic and optoelectronic experiments. The different experimental techniques allowed to retrieve deeper insights into their unique optical as well as optoelectronic properties. The motivation of the research presented in this work was to correlate their photophysical properties with respect to their application in electrically pumped lasing. This thesis begins with the description of optical properties studied by classical absorption and emission spectroscopy and successively describes an overall picture regarding their excited state dynamics occurring after photoexcitation studied by time-resolved spectroscopy. The different spectroscopic methods do not only allow to elucidate the different optical transitions occurring in this class of materials, but also contribute to a better understanding of exciton dynamics and exciton interaction with respect to the molecular structure as well as aggregation and photooxidation of the polymers. Furthermore, the stimulated emission properties were analyzed by amplified spontaneous emission (ASE) experiments. Especially one of the investigated materials, called BLUE-1, showed outstanding optical properties including a high optical gain, a low threshold for ASE and low optical losses. Apart from the optical experiments, the charge carrier mobility was measured with the time-of-flight technique and a comparably high hole mobility on the order of 1 x 10-² cm²/(Vs) was determined for BLUE-1 which makes this material promising for organic lasing. The impact of the high charge carrier mobility in this material class was further analyzed in different optoelectronic devices such as organic LEDs (OLEDs) and organic solar cells.
Resumo:
Schon seit einigen Jahrzehnten wird die Sportwissenschaft durch computergestützte Methoden in ihrer Arbeit unterstützt. Mit der stetigen Weiterentwicklung der Technik kann seit einigen Jahren auch zunehmend die Sportpraxis von deren Einsatz profitieren. Mathematische und informatische Modelle sowie Algorithmen werden zur Leistungsoptimierung sowohl im Mannschafts- als auch im Individualsport genutzt. In der vorliegenden Arbeit wird das von Prof. Perl im Jahr 2000 entwickelte Metamodell PerPot an den ausdauerorientierten Laufsport angepasst. Die Änderungen betreffen sowohl die interne Modellstruktur als auch die Art der Ermittlung der Modellparameter. Damit das Modell in der Sportpraxis eingesetzt werden kann, wurde ein Kalibrierungs-Test entwickelt, mit dem die spezifischen Modellparameter an den jeweiligen Sportler individuell angepasst werden. Mit dem angepassten Modell ist es möglich, aus gegebenen Geschwindigkeitsprofilen die korrespondierenden Herzfrequenzverläufe abzubilden. Mit dem auf den Athleten eingestellten Modell können anschliessend Simulationen von Läufen durch die Eingabe von Geschwindigkeitsprofilen durchgeführt werden. Die Simulationen können in der Praxis zur Optimierung des Trainings und der Wettkämpfe verwendet werden. Das Training kann durch die Ermittlung einer simulativ bestimmten individuellen anaeroben Schwellenherzfrequenz optimal gesteuert werden. Die statistische Auswertung der PerPot-Schwelle zeigt signifikante Übereinstimmungen mit den in der Sportpraxis üblichen invasiv bestimmten Laktatschwellen. Die Wettkämpfe können durch die Ermittlung eines optimalen Geschwindigkeitsprofils durch verschiedene simulationsbasierte Optimierungsverfahren unterstützt werden. Bei der neuesten Methode erhält der Athlet sogar im Laufe des Wettkampfs aktuelle Prognosen, die auf den Geschwindigkeits- und Herzfrequenzdaten basieren, die während des Wettkampfs gemessen werden. Die mit PerPot optimierten Wettkampfzielzeiten für die Athleten zeigen eine hohe Prognosegüte im Vergleich zu den tatsächlich erreichten Zielzeiten.