6 resultados para Error threshold

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Drei-Spektrometer-Anlage am Mainzer Institut für Kernphysik wurde um ein zusätzliches Spektrometer ergänzt, welches sich durch seine kurze Baulänge auszeichnet und deshalb Short-Orbit-Spektrometer (SOS) genannt wird. Beim nominellen Abstand des SOS vom Target (66 cm) legen die nachzuweisenden Teilchen zwischen Reaktionsort und Detektor eine mittlere Bahnlänge von 165 cm zurück. Für die schwellennahe Pionproduktion erhöht sich dadurch im Vergleich zu den großen Spektrometern die Überlebenswahrscheinlichkeit geladener Pionen mit Impuls 100 MeV/c von 15% auf 73%. Demzufolge verringert sich der systematische Fehler ("Myon-Kontamination"), etwa bei der geplanten Messung der schwachen Formfaktoren G_A(Q²) und G_P(Q²), signifikant. Den Schwerpunkt der vorliegenden Arbeit bildet die Driftkammer des SOS. Ihre niedrige Massenbelegung (0,03% X_0) zur Reduzierung der Kleinwinkelstreuung ist auf den Nachweis niederenergetischer Pionen hin optimiert. Aufgrund der neuartigen Geometrie des Detektors musste eine eigene Software zur Spurrekonstruktion, Effizienzbestimmung etc. entwickelt werden. Eine komfortable Möglichkeit zur Eichung der Driftweg-Driftzeit-Relation, die durch kubische Splines dargestellt wird, wurde implementiert. Das Auflösungsvermögen des Spurdetektors liegt in der dispersiven Ebene bei 76 µm für die Orts- und 0,23° für die Winkelkoordinate (wahrscheinlichster Fehler) sowie entsprechend in der nicht-dispersiven Ebene bei 110 µm bzw. 0,29°. Zur Rückrechnung der Detektorkoordinaten auf den Reaktionsort wurde die inverse Transfermatrix des Spektrometers bestimmt. Hierzu wurden an Protonen im ¹²C-Kern quasielastisch gestreute Elektronen verwendet, deren Startwinkel durch einen Lochkollimator definiert wurden. Daraus ergeben sich experimentelle Werte für die mittlere Winkelauflösung am Target von sigma_phi = 1,3 mrad bzw. sigma_theta = 10,6 mrad. Da die Impulseichung des SOS nur mittels quasielastischer Streuung (Zweiarmexperiment) durchgeführt werden kann, muss man den Beitrag des Protonarms zur Breite des Piks der fehlenden Masse in einer Monte-Carlo-Simulation abschätzen und herausfalten. Zunächst lässt sich nur abschätzen, dass die Impulsauflösung sicher besser als 1% ist.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Messung der Elektroproduktion geladener Pionen in der Nähe der Produktionsschwelle ermöglicht die Bestimmung des axialen Formfaktors des Nukleons G_A(Q²) und aus seinem Verlauf die Extraktion der axialen Masse M_A. Diese Größe kann im Rahmen der chiralen Störungstheorie vorhergesagt werden, so daß ihre experimentelle Bestimmung eine Überprüfung der theoretischen Beschreibung des Nukleons erlaubt. Im Rahmen dieser Arbeit wurden die bereits am Institut für Kernphysik der Universität Mainz in der A1-Kollaboration durchgeführten Messungen der Reaktion H(e,e'Pi+)n bei einer Schwerpunktsenergie von W = 1125 MeV und einem Vierer- impulsübertrag Q² von 0.117, 0.195 und 0.273 (GeV/c)² durch eine weitere Messung bei Q² = 0.058 (GeV/c)² ergänzt. In einer zweiten Meßperiode wurden zusätzlich die Messungen für die Q²-Werte von 0.117 und 0.195 (GeV/c)² wiederholt. Für alle Q²-Werte wurden Daten bei mindestens drei verschiedenen Werten der Polarisation des virtuellen Photons genommen, so daß für alle Messungen eine Rosenbluthseparation durchgeführt werden konnte, um den transversalen und den longitudinalen Anteil des Wirkungsquerschnitts zu bestimmen. Das Ergebnis für Q² = 0.195 (GeV/c)² stimmt im Rahmen der Fehler mit dem alten Ergebnis überein, für Q² = 0.117 (GeV/c)² ergibt sich eine deutliche Abweichung des longitudinalen Anteils. Das Ergebnis für Q² = 0.058 (GeV/c)² liegt unter der aus den alten Messungen gewonnenen Vorhersage. Der induzierte pseudoskalare Formfaktor des Nukleons G_P(Q²) kann ebenfalls in der Pionelektroproduktion bestimmt werden, wenn die Messung bei einer Schwerpunktsenergie nur wenige MeV über der Produktionsschwelle stattfindet. Eine solche Messung erfordert den Nachweis von Pionen mit kinetischen Energien unter 35 MeV, für den die in der A1-Kollaboration vorhandenen Spektrometer nicht geeignet sind. Im apparativen Teil der Arbeit wurde daher ein Szintillatorhodoskop für ein dediziertes Pionspektrometer mit kurzer Weglänge gebaut und getestet. Außerdem wurden für dieses sogenannte Short-Orbit-Spektrometer drei Kollimatoren entworfen und eingebaut.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

During the last decades magnetic circular dichroism (MCD) has attracted much interest and evolved into various experimental methods for the investigation of magnetic thin films. For example, synchrotron-based X-ray magnetic circular dichroism (XMCD) displays the absolute values of spin and orbital magnetic moments. It thereby benefits from large asymmetry values of more than 30% due to the excitation of atomic core-levels. Similarly large values are also expected for threshold photoemission magnetic circular dichroism (TPMCD). Using lasers with photon energies in the range of the sample work function this method gives access to the occupied electronic structure close to the Fermi level. However, except for the case of Ni(001) there exist only few studies on TPMCD moreover revealing much smaller asymmetries than XMCD-measurements. Also the basic physical mechanisms of TPMCD are not satisfactorily understood. In this work we therefore investigate TPMCD in one- and two-photon photoemission (1PPE and 2PPE) for ferromagnetic Heusler alloys and ultrathin Co films using ultrashort pulsed laser light. The observed dichroism is explained by a non-conventional photoemission model using spin-resolved band-structure calculations and linear response theory. For the two Heusler alloys Ni2MnGa and Co2FeSi we give first evidence of TPMCD in the regime of two-photon photoemission. Systematic investigations concerning general properties of TPMCD in 1PPE and 2PPE are carried out at ultrathin Co films grown on Pt(111). Here, photon-energy dependent measurements reveal asymmetries of 1.9% in 1PPE and 11.7% in 2PPE. TPMCD measurements at decreased work function even yield larger asymmetries of 6.2% (1PPE) and 17% (2PPE), respectively. This demonstrates that enlarged asymmetries are also attainable for the TPMCD effect on Co(111). Furthermore, we find that the TPMCD asymmetry is bulk-sensitive for 1PPE and 2PPE. This means that the basic mechanism leading to the observed dichroism must be connected to Co bulk properties; surface effects do not play a crucial role. Finally, the enhanced TPMCD asymmetries in 2PPE compared to the 1PPE case are traced back to the dominant influence of the first excitation step and the existence of a real intermediate state. The observed TPMCD asymmetries cannot be interpreted by conventional photoemission theory which only considers direct interband transitions in the direction of observation (Γ-L). For Co(111), these transitions lead to evanescent final states. The excitation to such states, however, is incompatible with the measured bulk-sensitivity of the asymmetry. Therefore, we generalize this model by proposing the TPMCD signal to arise mostly from direct interband transitions in crystallographic directions other than (Γ-L). The necessary additional momentum transfer to the excited electrons is most probably provided by electron-phonon or -magnon scattering processes. Corresponding calculations on the basis of this model are in reasonable agreement with the experimental results so that this approach represents a promising tool for a quantitative description of the TPMCD effect. The present findings encourage an implementation of our experimental technique to time- and spatially-resolved photoemission electron microscopy, thereby enabling a real time imaging of magnetization dynamics of single excited states in a ferromagnetic material on a femtosecond timescale.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.