7 resultados para Acquisition des connaissances
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Zu den Hauptcharakteristika von Teilchen gehoert - neben der Masse - die Lebensdauer. Die mittlere Lebensdauer des Xi0-Hyperons, die sich aus der mittleren Lebensdauer des Xi--Hyperons ueber die Delta I=1/2-Regel theoretisch voraussagen laesst, wurde bereits mehrfach experimentell bestimmt. Die neueste Messung aus dem Jahr 1977 besitzt jedoch eine relative Unsicherheit von 5%, was sich mit Daten neuerer Experimente deutlich verbessern laesst. Die mittlere Lebensdauer ist ein wichtiger Parameter bei der Bestimmung des Matrixelements Vus der Cabibbo-Kobayashi-Maskawa-Matrix in semileptonischen Xi0-Zerfaellen. Im Jahre 2002 wurde mit dem NA48-Detektor eine Datennahme mit hoher Intensitaet durchgefuehrt, bei der unter anderem etwa 10^9 Xi0-Zerfallskandidaten aufgezeichnet wurden. Davon wurden im Rahmen dieser Arbeit 192000 Ereignisse des Typs "Xi0 nach Lambda pi0" rekonstruiert und 107000 Ereignisse zur Bestimmung der mittleren Lebensdauer durch Vergleich mit simulierten Ereignissen verwendet. Zur Vermeidung von systematischen Fehlern wurde die Lebensdauer in zehn Energieintervallen durch Vergleich von gemessenen und simulierten Daten ermittelt. Das Ergebnis ist wesentlich genauer als bisherige Messungen und weicht vom Literaturwert (tau=(2,90+-0,09)*10^(-10)s) um (+4,99+-0,50(stat)+-0,58(syst))% ab, was 1,7 Standardabweichungen entspricht. Die Lebensdauer ergibt sich zu tau=(3,045+-0,015(stat)+-0,017(syst))*10^(-10)s. Auf die gleiche Weise konnte mit den zur Verfuegung stehenden Daten erstmals die Lebensdauer des Anti-Xi0-Hyperons gemessen werden. Das Ergebnis dieser Messung ist tau=(3,042+-0,045(stat)+-0,017(syst))*10^(-10)s.
Resumo:
Eine neue auf einer Pyruvat abhängigen Biolumineszenzreaktion basierende Methode zur quantitativen Bestimmung und räumlichen Darstellung von Pyruvat in Gefrierschnitten von Gewebeproben wurde entwickelt. Dabei wurden biochemische Reaktionen so verknüpft, dass sichtbares Licht proportional zum eingesetzten Pyruvatgehalt entstand. Eine hoch signifikante positive Korrelation beider Parameter ermöglichte eine Kalibrierung mit definierten Pyruvatgehalten und damit die Quantifizierung in unbekannten Proben. Die Nachweisgrenze lag bei 0,04 pmol Pyruvat mit einer Auflösung von 0,02 µmol/g. Das Biolumineszenzverfahren wurde mit Hilfe anderer Methoden validiert, wobei eine Wiederfindung mit einer konzentrationsabhängigen Abweichung von ≤ 15 % erzielt wurde. Ein wesentlicher Vorteil der neuen Methode gegenüber bisherigen Verfahren zum Pyruvatnachweis liegt in der Messwerterfassung definierter histologischer Gewebsareale. Dies wird durch computergesteuerte Überlagerung von Metabolitverteilungen mit Schnittbildern aus Strukturfärbungen und interaktiver, „optischer Mikrodissektion“ der Gewebeschnitte möglich. Ein weiterer Nutzen der Methode ist deren optionale Kombination mit der Biolumineszenztechnik für andere Stoffwechselprodukte. So ermöglicht eine exakte Superposition zweier Metabolitbilder von unmittelbar aufeinander folgenden Gewebeschnitten eine korrelative Kolokalisationsanalyse beider Metabolite. Das Ergebnis lässt sich zum einen in Form von „Pixel-zu-Pixel“-Korrelationen dokumentieren, zum anderen kann für jeden Bildpunkt ein Laktat/Pyruvat-Verhältnis als Maß für den Redoxzustand des Gewebes berechnet und dargestellt werden. Hieraus ergeben sich z.B. räumliche L/P-Verteilungen (L/P-Karten). Ein solches „Redoximaging“ durch Kartierung des L/P-Quotienten ist bislang mit keinem anderen Verfahren möglich. Während die Entwicklung des Pyruvatnachweises eine Kernaufgabe der vorliegenden Arbeit darstellte, bestand ein weiterer wesentlicher Teil in der praktischen Anwendung der neuen Methode im Bereich der experimentellen Tumorforschung. So ergaben Messungen an acht verschiedenen Linien von humanen HNSCC-Xenotransplantaten (n = 70 Tumoren) einen mittleren Pyruvatgehalt von 1,24 ± 0,20 µmol/g. In sechs Humanbiopsien derselben Tumorentität wurde ein durchschnittlicher Pyruvatgehalt von 0,41 ± 0,09 µmol/g gemessen. Bei den Xenotransplantaten konnte eine signifikante positive Korrelation zwischen der Summe aus Laktat und Pyruvat bzw. dem L/P Verhältnis und der Strahlensensibilität gefunden werden, wobei das L/P-Verhältnis ebenso wie die Summe aus Laktat und Pyruvat maßgeblich von Laktat bestimmt wurden. Der Zusammenhang der Metabolite mit der Strahlensensibilität lässt sich durch deren antioxidative Eigenschaften erklären. Da der Redoxzustand der Zelle kritisch bezüglich der Effizienz von ROS induzierenden Therapieansätzen, wie z.B. Bestrahlung oder bestimmter Chemotherapeutika sein kann, könnte die Bestimmung des L/P Verhältnisses als prognostischer Faktor prädiktive Aussagen über die Sensibilität gegenüber solchen Behandlungen erlauben.
Resumo:
Mit der Erweiterung des Elektronenbeschleunigers MAMI um eine dritte Stufe ist es möglich geworden, am Institut für Kernphysik Teilchen mit offener Strangeness zu produzieren. Für deren Nachweis ist die Drei-Spektrometeranlage der Kollaboration A1 um das von der GSI in Darmstadt übernommene KAOS-Spektrometer erweitert worden. Untersucht wird damit die elementare Reaktion p(e,e' K+)Lambda/Sigma0 wobei das auslaufende Elektron und das Kaon nachgewiesen werden müssen. Wird als Target nicht Wasserstoff verwendet, besteht die Möglichkeit dass sich ein Hyperkern bildet. Spektroskopische Untersuchungen an diesen bieten die Möglichkeit das Potential von Hyperonen in Atomkernen und die Hyperon-Nukleon-Wechselwirkung zu untersuchen. Aufgrund der hervorragenden Strahlqualität bei der Elektroproduktion können hier Massenauflösungen von einigen hundert keV/c² erreicht werden. Mit Hilfe von GEANT4 wurden die Detektoren und die Abbildungseigenschaften des Spektrometers simuliert. Geeignete Ereignisgeneratoren wurden implementiert. Es wurde untersucht, wie mögliche Treffermuster in den Detektoren aussehen, die von einem Trigger auf FPGA-Basis selektiert werden müssen. Ebenso konnte hieraus eine erste Abbildung der Spurkoordinaten auf die Targetkoordinaten und den Teilchenimpuls gewonnen werden. Für das Hyperkernprogramm muss KAOS unter 0° Vorwärtsrichung betrieben werden und der Primärstrahl mit Hilfe einer Schikane durch den Dipol gelenkt werden. Die Simulation zeigt hier eine nur moderate Erhöhung der Strahlenbelastung, vor allem im Bereich des Strahlfängers. Somit ist es möglich, KAOS als doppelseitiges Spektrometer in der Spektrometerhalle zu betreiben. Im Rahmen dieser Arbeit wurden die für sämtliche Detektoren nötige Auslese- und Steuerungselektronik in das vorhandene Datenerfassungssystem und das Steuerungssystem eingebunden. In zwei Strahlzeiten im Herbst 2008 wurden Kaonen im Winkelbereich von 20°-40° mit Impulsen zwischen 400MeV/c und 600MeV/c nachgewiesen. Die aus der Simulation gewonnenen Daten zum Trigger und zur Abbildung kamen zum Einsatz. Es konnte die für eine gute Teilchenidentifikation nötige Zeitauflösung von ca. 1ns FWHM erreicht werden. Die erreichte Winkel- und Impulsauflösung war ausreichend um Lambda und Sigma0-Hyperonen im Spektrum der fehlenden Masse leicht trennen zu können.
Resumo:
Das A4-Experiment bestimmt den Beitrag der Strangequarks zu den elektromagnetischen Formfaktoren des Nukleons durch Messung der Paritätsverletzung in der elastischen Elektron-Nukleon-Streuung. Diese Messungen werden mit dem spinpolarisierten Elektronenstrahl des Mainzer Mikrotrons (MAMI) bei Strahlenergien zwischen 315 und 1508 MeV ndurchgeführt. Die Bestimmung des Strahlpolarisationsgrades ist für die Analyse der Daten unerläßlich, um die physikalische Asymmetrie aus der gemessenen paritätsverletzenden Asymmetrie extrahieren zu können. Aus diesem Grund wird von der A4-Kollaboration ein neuartiges Compton-Laserrückstreupolarimeter entwickelt, das eine zerstörungsfreie Messung der Strahlpolarisation, parallel zum laufenden Paritätsexperiment erlaubt. Um den zuverlässigen Dauerbetrieb des Polarimeters zu ermöglichen, wurde das Polarimeter im Rahmen dieser Arbeit weiterentwickelt. Das Datenerfassungssystem für Photonen- und Elektronendetektor wurde neu aufgebaut und im Hinblick auf die Verarbeitung hoher Raten optimiert. Zum Nachweis der rückgestreuten Photonen wurde ein neuartiger Detektor (LYSO) in Betrieb genommen. Darüber hinaus wurden GEANT4-Simulationen der Detektoren durchgeführt und eine Analyseumgebung für die Extraktion von Comptonasymmetrien aus den Rückstreudaten entwickelt. Das Analyseverfahren nutzt die Möglichkeit, die rückgestreuten Photonen durch koinzidente Detektion der gestreuten Elektronen energiemarkiert nachzuweisen (Tagging). Durch die von der Energiemarkierung eingeführte differentielle Energieskala wird somit eine präzise Bestimmung der Analysierstärke möglich. In der vorliegenden Arbeit wurde die Analysierstärke des Polarimeters bestimmt, so daß nun das Produkt von Elektronen- und Laserstrahlpolarisation bei einem Strahlstrom von 20 muA, parallel zum laufenden Paritätsexperiment, mit einer statistischen Genauigkeit von 1% in 24 Stunden bei 855 MeV bzw. <1% in 12 Stunden bei 1508 MeV gemessen werden kann. In Kombination mit der Bestimmung der Laserpolarisation in einer parallelen Arbeit (Y. Imai) auf 1% kann die statistische Unsicherheit der Strahlpolarisation im A4-Experiment von zuvor 5% auf nun 1,5% bei 1508MeV verringert werden. Für die Daten zur Messung der paritätsverletzenden Elektronenstreuung bei einem Viererimpulsübertrag von $Q^2=0,6 (GeV/c)^2$ beträgt die Rohasymmetrie beim derzeitigen Stand der Analyse $A_{PV}^{Roh} = ( -20,0 pm 0,9_{stat} ) cdot 10^{-6}$. Für eine Strahlpolarisation von 80% erhält man einen Gesamtfehler von $1,68 cdot 10^{-6}$ für $Delta P_e/P_e = 5 %$. Als Ergebnis dieser Arbeit wird sich dieser Fehler durch Analyse der Daten des Compton-Laserrückstreupolarimeters um 29% auf $1,19 cdot 10^{-6}$ ($Delta P_e/P_e = 1,5 %$) verringern lassen.
Resumo:
Kernkollaps-Supernovae werden von einem massiven Ausbruch niederenergetischer Neutrinos begleitet. Sie zählen zu den energiereichsten Erscheinungen im Universum und stellen die derzeit einzig bekannte Quelle extrasolarer Neutrinos dar.rnDie Detektion einer solchen Neutrinosignatur würde zu einem tieferen Verständnis des bislang unzureichend bekannten stellaren Explosionsmechanismus führen. rnDarüber hinaus würden neue Einblicke in den Bereich der Teilchenphysik und der Supernova-Modellierung ermöglicht. Das sich zur Zeit am geographischen Südpol im Aufbau befindliche Neutrinoteleskop IceCube wird 2011 fertig gestellt sein.rnIceCube besteht im endgültigen Ausbau aus 5160 Photovervielfachern, die sich in gitterförmiger Anordnung in Tiefen zwischen 1450m und 2450m unter der Eisoberfläche befinden. Durch den Nachweis von Tscherenkow-Photonenrnim antarktischen Gletscher ist es in der Lage, galaktische Supernovae über einen kollektiven Anstieg der Rauschraten in seinen Photonenvervielfachern nachzuweisen.rnIn dieser Arbeit werden verschiedene Studien zur Implementierung einer künstlichen Totzeit vorgestellt, welche korreliertes Rauschen unterdrücken und somit das Signal-Untergund-Verhältnis maximieren würden.rnEin weiterer Teil dieser Dissertation bestand in der Integration der Supernova-Datenakquise eine neue Experiment-Steuerungssoftware.rnFür den Analyseteil der Arbeit wurde ein Monte-Carlo für IceCube entwickelt und Neutinooszillations-Mechanismen und eine Reihe von Signalmodellen integriert. Ein Likelihoodhypothesen-Test wurde verwendet, um die Unterscheidbarkeit verschiedener Supernova- beziehungsweise Neutrinooszillations-Szenarien zu untersuchen. Desweiteren wurde analysiert inwieweit sich Schock-Anregungen und QCD-Phasenübergnag im Verlauf des Explosionsprozesses detektieren lassen.
Resumo:
Die vorliegende Arbeit zum kindlichen Erwerb der binären Opposition von „Möglichkeit“ und „Unmöglichkeit“ und ihrer modalen Ausdrucksweisen im Russischen ist in ihrem praktischen Teil eine Einzelfall- und Langzeitstudie, die eine Ergänzung zu den bisher veröffentlichten, durchgehend eher experimentell und statistisch orientierten Forschungsarbeiten darstellen soll.rnÜber dreieinhalb Jahre hinweg wurde kontinuierlich Sprachmaterial eines Kindes sowie einiger ungefährer Altersgenossen und Spielkameraden aufgezeichnet, geordnet und ausgewertet. Zu Beginn des Untersuchungszeitraums war die Hauptprobandin dreieinhalb Jahre alt, zum Schluß sieben Jahre. Dieses Verfahren wurde bisher für das Russische noch nicht angewandt und wird im theoretischen Teil sorgfältig begründet.rnDas Sammeln für die Fragestellung relevanten sprachlichen Materials erfordert naturgemäß einen hohen Zeit- und Arbeitsaufwand, liefert dafür aber Daten, die eine Beeinflussung durch einen vorgegebenen Versuchsaufbau ausschließen, der natürlichen, spontanen Kommunikation entspringende Äußerungen festhalten und es ermöglichen, unprovozierte Interaktion, situationsbedingte Einflüsse, das Diskursverhalten der Probanden und ähnliche, individuelle Faktoren bei der Interpretation des Sprachmaterials in angemessener Weise zu berücksichtigen.rnUm die Fülle modaler Ausdrucksweisen sinnvoll zu strukturieren, konzentriert sich die Analyse auf die kindliche Verwendung von Modalverben und Prädikative als zentrale Mittel innerhalb des „Möglichkeitsfeldes“ und richtet den Fokus dabei auf das Verb moč’. Aus diesem Grunde wurde das theoretische Fundament, das der Arbeit zugrunde liegt, zu einem nicht geringen Teil aus dem Ansatz I.V. Šatunovskijs entwickelt, der die differenzierteste Analyse der zahlreichen Bedeutungsschattierungen des Verbs moč’ vorgelegt hat. Für besonders bedeutungsvoll für die vorliegende Arbeit erweist sich die Unterscheidung von kontrollierbarer und unkontrollierbarer Möglichkeit.rnIm Rahmen der Untersuchung ließen sich die grundlegenden Entwicklungstendenzen verfolgen. Dabei wurde nicht nur versucht nachzuvollziehen, in welcher Weise sich bei einem Kind das Fundament des Sprachgebrauchs in Gestalt eines allgemeinen „Zitatenschatzes“ formiert, sondern es gelang mitunter sogar, erste Fälle der Verwendung des einen oder anderen kommunikativen Fragments mit der Bedeutung von „Möglichkeit“ / „Unmöglichkeit“ oder erste Fälle der Konfrontation des Kindes mit einer neuen Situation, die eine solche Bedeutung verlangte, und sein Sprachverhalten in diesem Moment zu fixieren.
Resumo:
Die Frage wie großmotorische Bewegungen gelernt werden beschäftigt nicht nur Sportler, Trainer und Sportlehrer sondern auch Ärzte und Physiotherapeuten. Die sportwissenschaftlichen Teildisziplinen Bewegungs- und Trainingswissenschaft versuchen diese Frage sowohl im Sinne der Grundlagenforschung (Wie funktioniert Bewegungslernen?) als auch hinsichtlich der praktischen Konsequenzen (Wie lehrt man Bewegungen?) zu beantworten. Innerhalb dieser Themenfelder existieren Modelle, die Bewegungslernen als gezielte und extern unterstützte Ausbildung zentralnervöser Bewegungsprogramme verstehen und solche, die Lernen als Selbstorganisationsprozess interpretieren. Letzteren ist das Differenzielle Lernen und Lehren (Schöllhorn, 1999) zuzuordnen, das die Notwendigkeit betont, Bewegungen durch die Steigerung der Variationen während der Aneignungsphase zu lernen und zu lehren. Durch eine Vielzahl an Variationen, so die Modellannahme, findet der Lernende ohne externe Vorgaben selbstorganisiert ein individuelles situatives Optimum. Die vorliegende Arbeit untersucht, welchen Einfluss Variationen verschiedener Art und Größe auf die Lern- und Aneignungsleistung großmotorischer Bewegungen haben und in wie fern personenübergreifende Optima existieren. In zwei Experimenten wird der Einfluss von räumlichen (Bewegungsausführung, Bewegungsergebnis) und zeitlichen Variationen (zeitliche Verteilung der Trainingsreize) auf die Aneignungs- und Lernleistung großmotorischer sportlicher Bewegungen am Beispiel zweier technischer Grundfertigkeiten des Hallenhockeys untersucht. Die Ergebnisse der Experimente stützen die bisherige Befundlage zum Differenziellen Lernen und Lehren, wonach eine Zunahme an Variation in der Aneignungsphase zu größeren Aneignungs- und Lernleistungen führt. Zusätzlich wird die Annahme bestätigt, dass ein Zusammenhang von Variationsbereich und Lernrate in Form eines Optimaltrends vorliegt. Neu sind die Hinweise auf die Dynamik von motorischen Lernprozessen (Experiment 1). Hier scheinen individuelle Faktoren (z. B. die Lernbiografie) als auch die Phase im Lernprozess (Aneignung, Lernen) Einfluss zu haben auf den Umfang und die Struktur eines für die optimale Adaptation notwendigen Variationsbereichs. Darüber hinaus weisen die Befunde auf verschiedene Aneignungs- und Lerneffekte aufgrund alleiniger Variation der zeitlichen Verteilung bei ansonsten gleichen Trainingsreizen hin (Experiment 2). Für zukünftige Forschungsarbeiten zum Erlernen großmotorischer Bewegungen und für die sportliche Praxis dürfte es daher erkenntnisreich sein, die Historie der intrinsischen Dynamik der lernenden Systeme stärker zu berücksichtigen. Neben Fragestellungen für die Grundlagenforschung zum (Bewegungs-)Lernen ließen sich hieraus unmittelbar praxisrelevante Erkenntnisse darüber ableiten, wie Bewegungslernprozesse mittels verschiedener Variationsbereiche strukturiert und gesteuert werden könnten.