9 resultados para Error of measurement

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main concern of the A4 parity violation experiment at the Mainzer Microtron accelerator facility is to study the electric and magnetic contributions of strange quarks to the charge and magnetism of the nucleons at the low momentum transfer region. More precisely, the A4 collaboration investigates the strange quarks' contribution to the electric and magnetic vector form factors of the nucleons. Thus, it is important that the A4 experiment uses an adequate and precise non-destructive online monitoring tool for the electron beam polarization when measuring single spin asymmetries in elastic scattering of polarized electrons from unpolarized nucleons. As a consequence, the A4 Compton backscattering polarimeter was designed and installed such that we can take the absolute measurement of the electron beam polarization without interruption to the parity violation experiment. The present study shows the development of an electron beam line that is called the chicane for the A4 Compton backscattering polarimeter. The chicane is an electron beam transport line and provides an interaction region where the electron beam and the laser beam overlap. After studying the properties of beam line components carefully, we developed an electron beam control system that makes a beam overlap between the electron beam and the laser beam. Using the system, we can easily achieve the beam overlap in a short time. The electron control system, of which the performance is outstanding, is being used in production beam times. And the study presents the development of a scintillating fiber electron detector that reduces the statistical error in the electron polarization measurement. We totally redesigned the scintillating fiber detector. The data that were taken during a 2008 beam time shows a huge background suppression, approximately 80 percent, while leaving the Compton spectra almost unchanged when a coincidence between the fiber detector and the photon detector is used. Thus, the statistical error of the polarization measurement is reduced by about 40 percent in the preliminary result. They are the significant progress in measuring a degree of polarization of the electron beam.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Das Ziel des Experiments NA48 am CERN ist die Messung des Parameters Re(epsilon'/epsilon) der direktenCP-Verletzung mit einer Genauigkeit von 2x10^-4. Experimentell zugänglich ist das DoppelverhältnisR, das aus den Zerfällen des KL und KS in zwei neutrale bzw. zwei geladene Pionengebildet wird. Für R gilt in guter Näherung: R=1-6Re(epsilon'/epsilon).
NA48 verwendet eine Wichtung der KL-Ereignisse zur Reduzierung der Sensitivität auf dieDetektorakzeptanz. Zur Kontrolle der bisherigen Standardanalyse wurde eine Analyse ohne Ereigniswichtung durchgeführt. Das Ergebnis derungewichteten Analyse wird in dieser Arbeit vorgestellt. Durch Verzicht auf die Ereigniswichtung kann derstatistische Anteil des Gesamtfehlers deutlich verringert werden. Da der limitierende Kanal der Zerfall deslanglebigen Kaons in zwei neutrale Pionen ist, ist die Verwendung der gesamten Anzahl derKL-Zerfälle ein lohnendes Ziel.Im Laufe dieser Arbeit stellte sich heraus, dass dersystematische Fehler der Akzeptanzkorrektur diesen Gewinn wieder aufhebt.

Das Ergebnis der Arbeit für die Daten aus den Jahren 1998und 1999 ohne Ereigniswichtung lautet
Re(epsilon'/epsilon)=(17,91+-4,41(syst.)+-1,36(stat.))x10^-4.
Damit ist eindeutig die Existenz der direkten CP-Verletzungbestätigt. Dieses Ergebnis ist mit dem veröffentlichten Ergebnis vonNA48 verträglichSomit ist der Test der bisherigen Analysestrategie bei NA48erfolgreich durchgeführt worden.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

CONCLUSIONS The focus of this work was the investigation ofanomalies in Tg and dynamics at polymer surfaces. Thethermally induced decay of hot-embossed polymer gratings isstudied using laser-diffraction and atomic force microscopy(AFM). Monodisperse PMMA and PS are selected in the Mwranges of 4.2 to 65.0 kg/mol and 3.47 to 65.0 kg/mol,respectively. Two different modes of measurement were used:the one mode uses temperature ramps to obtain an estimate ofthe near-surface glass temperature, Tdec,0; the other modeinvestigates the dynamics at a constant temperature aboveTg. The temperature-ramp experiments reveal Tdec,0 valuesvery close to the Tg,bulk values, as determined bydifferential scanning calorimetry (DSC). The PMMA of65.0 kg/mol shows a decreased value of Tg, while the PS samples of 3.47 and 10.3 kg/mol (Mwof an amplitude reduction and a finalstate is smaller in the case of PS than in the case of PMMA.This suggests a higher degree of cooperation between thepolymer chains for PMMA than for PS chains even near thesurface. A reduction of the investigated near-surface region byusing smaller grating constants and AFM did not show achange in the near-surface Tdec,0. Decay experiments were performed at a variety ofconstant temperatures. Master plots are produced by shifting the decay curves, on the logarithmic time scale,with respect to a reference curve at Tref. From thisprocedure shift factors were extracted. An Arrhenius analysis of the shift factors reveals adecreasing non-Arrhenius (fragile) behavior with molecular weight for PMMA. PS is fragile for all Mw asexpected for linear polymers. Non-Arrhenius behavior allowsone to fit the shift factors to the William-Landel-Ferry(WLF) equation. The WLF parameters for the varying molecular weights ofPMMA and PS were extracted and compared to the values frombulk rheology measurements. Assuming cg1=16+/-2 at Tg, assuggested by Angell, the glass temperature was determinedfrom the dynamic decay experiments. Within the experimentalerrors, the values for Tg,surf(c1=16) and T_g,bulk(c1=16)tend to be smaller than Tdec,0 and Tg,bulk fromtemperature-ramp and DSC measurements, but confirm thecourse of the values with increasing Mw. The comparison of the fragilities (temperaturedependence of the polymer properties at Tg) near the surfaceand in the bulk shows a higher fragility for PS near thesurface, a lower one for PMMA with molecular weights of 4.2and 65.0 kg/mol. The different surface behavior of PS istraced back to a lower degree of cooperation and a largerfree volume fraction.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Spannungsumlagerungen in Mineralen und Gesteinen induzieren in geologisch aktiven Bereichen mikromechanische und seismische Prozesse, wodurch eine schwache natürliche elektromagnetische Strahlung im Niederfrequenzbereich emittiert wird. Die elektromagnetischen Emissionen von nichtleitenden Mineralen sind auf dielektrische Polarisation durch mehrere physikalische Effekte zurückzuführen. Eine gerichtete mechanische Spannung führt zu einer ebenso gerichteten elektromagnetischen Emission. Die Quellen der elektromagnetischen Emissionen sind bekannt, jedoch können sie noch nicht eindeutig den verschiedenen Prozessen in der Natur zugeordnet werden, weshalb im Folgenden von einem seismo-elektromagnetischen Phänomen (SEM) gesprochen wird. Mit der neuentwickelten NPEMFE-Methode (Natural Pulsed Electromagnetic Field of Earth) können die elektromagnetischen Impulse ohne Bodenkontakt registriert werden. Bereiche der Erdkruste mit Spannungsumlagerungen (z.B. tektonisch aktive Störungen, potenzielle Hangrutschungen, Erdfälle, Bergsenkungen, Firstschläge) können als Anomalie erkannt und abgegrenzt werden. Basierend auf dem heutigen Kenntnisstand dieser Prozesse wurden Hangrutschungen und Locker- und Festgesteine, in denen Spannungsumlagerungen stattfinden, mit einem neuentwickelten Messgerät, dem "Cereskop", im Mittelgebirgsraum (Rheinland-Pfalz, Deutschland) und im alpinen Raum (Vorarlberg, Österreich, und Fürstentum Liechtenstein) erkundet und die gewonnenen Messergebnisse mit klassischen Verfahren aus Ingenieurgeologie, Geotechnik und Geophysik in Bezug gesetzt. Unter Feldbedingungen zeigte sich großenteils eine gute Übereinstimmung zwischen den mit dem "Cereskop" erkundeten Anomalien und den mit den konventionellen Verfahren erkundeten Spannungszonen. Auf Grundlage der bisherigen Kenntnis und unter Einbeziehung von Mehrdeutigkeiten werden die Messergebnisse analysiert und kritisch beurteilt.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Das aSPECT Spektrometer wurde entworfen, um das Spektrum der Protonen beimrnZerfall freier Neutronen mit hoher Präzision zu messen. Aus diesem Spektrum kann dann der Elektron-Antineutrino Winkelkorrelationskoeffizient "a" mit hoher Genauigkeit bestimmt werden. Das Ziel dieses Experiments ist es, diesen Koeffizienten mit einem absoluten relativen Fehler von weniger als 0.3% zu ermitteln, d.h. deutlich unter dem aktuellen Literaturwert von 5%.rnrnErste Messungen mit dem aSPECT Spektrometer wurden an der Forschungsneutronenquelle Heinz Maier-Leibnitz in München durchgeführt. Jedoch verhinderten zeitabhängige Instabilitäten des Meßhintergrunds eine neue Bestimmung von "a".rnrnDie vorliegende Arbeit basiert hingegen auf den letzten Messungen mit dem aSPECTrnSpektrometer am Institut Laue-Langevin (ILL) in Grenoble, Frankreich. Bei diesen Messungen konnten die Instabilitäten des Meßhintergrunds bereits deutlich reduziert werden. Weiterhin wurden verschiedene Veränderungen vorgenommen, um systematische Fehler zu minimieren und um einen zuverlässigeren Betrieb des Experiments sicherzustellen. Leider konnte aber wegen zu hohen Sättigungseffekten der Empfängerelektronik kein brauchbares Ergebnis gemessen werden. Trotzdem konnten diese und weitere systematische Fehler identifiziert und verringert, bzw. sogar teilweise eliminiert werden, wovon zukünftigernStrahlzeiten an aSPECT profitieren werden.rnrnDer wesentliche Teil der vorliegenden Arbeit befasst sich mit der Analyse und Verbesserung der systematischen Fehler, die durch das elektromagnetische Feld aSPECTs hervorgerufen werden. Hieraus ergaben sich vielerlei Verbesserungen, insbesondere konnten die systematischen Fehler durch das elektrische Feld verringert werden. Die durch das Magnetfeld verursachten Fehler konnten sogar soweit minimiert werden, dass nun eine Verbesserung des aktuellen Literaturwerts von "a" möglich ist. Darüber hinaus wurde in dieser Arbeit ein für den Versuch maßgeschneidertes NMR-Magnetometer entwickelt und soweit verbessert, dass nun Unsicherheiten bei der Charakterisierung des Magnetfeldes soweit reduziert wurden, dass sie für die Bestimmung von "a" mit einer Genauigkeit von mindestens 0.3% vernachlässigbar sind.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

In technical design processes in the automotive industry, digital prototypes rapidly gain importance, because they allow for a detection of design errors in early development stages. The technical design process includes the computation of swept volumes for maintainability analysis and clearance checks. The swept volume is very useful, for example, to identify problem areas where a safety distance might not be kept. With the explicit construction of the swept volume an engineer gets evidence on how the shape of components that come too close have to be modified.rnIn this thesis a concept for the approximation of the outer boundary of a swept volume is developed. For safety reasons, it is essential that the approximation is conservative, i.e., that the swept volume is completely enclosed by the approximation. On the other hand, one wishes to approximate the swept volume as precisely as possible. In this work, we will show, that the one-sided Hausdorff distance is the adequate measure for the error of the approximation, when the intended usage is clearance checks, continuous collision detection and maintainability analysis in CAD. We present two implementations that apply the concept and generate a manifold triangle mesh that approximates the outer boundary of a swept volume. Both algorithms are two-phased: a sweeping phase which generates a conservative voxelization of the swept volume, and the actual mesh generation which is based on restricted Delaunay refinement. This approach ensures a high precision of the approximation while respecting conservativeness.rnThe benchmarks for our test are amongst others real world scenarios that come from the automotive industry.rnFurther, we introduce a method to relate parts of an already computed swept volume boundary to those triangles of the generator, that come closest during the sweep. We use this to verify as well as to colorize meshes resulting from our implementations.

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Metallische Nanopartikel und ihre Oxide (z.B. ZnO NP, TiO2 NP und Fe2O3 NP) werden aufgrund ihrer chemischen und physikalischen Eigenschaften häufig als Additive in der Reifenproduktion, in Katalysatoren, Lebensmitteln, Arzneimitteln und Kosmetikprodukten verwendet. Künftig wird ein kontinuierlicher Anstieg der industriellen Anwendung (~ 1663 Tonnen im Jahr 2025) mit gesteigerter Freisetzung in die Umwelt erwartet, was zwangsläufig zu einer vermehrten Aufnahme über das respiratorische Epithel führt. Metalldampffieber ist als gesundheitsschädigender Effekt von Metalloxid-haltigen Aerosolen (z.B. ZnO) nach Inhalation bekannt. Immunreaktionen, wie beispielsweise Entzündungen, werden häufig mit der Entstehung von Sauerstoffradikalen (ROS) in Verbindung gebracht, die wiederum zu DNA-Schäden führen können. Drei mögliche Ursachen der Genotoxität werden angenommen: direkte Interaktion von Nanopartikeln mit intrazellulären Strukturen, Interaktion von Ionen dissoziierter Partikel mit intrazellulären Strukturen sowie die Entstehung von ROS initiiert durch Partikel oder Ionen.rnDie vorliegende Studie befasst sich mit den Mechanismen der Genotoxizität von ZnO Nanopartikeln (ZnO NP), als Beispiel für metallische Nanopartikel, im respiratorischen Epithel. In der Studie wurde gezielt die intrazelluläre Aufnahme und Verteilung von ZnO NP, deren Toxizität, deren DNA schädigendes Potential sowie die Aktivierung der DNA damage response (DDR) analysiert.rnEs konnten kaum internalisierte ZnO NP mittels TEM detektiert werden. Innerhalb der ersten Sekunden nach Behandlung mit ZnO NP wurde spektrofluorometrisch ein starker Anstieg der intrazellulären Zn2+ Konzentration gemessen. In unbehandelten Zellen war Zn2+ in granulären Strukturen lokalisiert. Die Behandlung mit ZnO NP führte zu einer Akkumulation von Zn2+ in diesen Strukturen. Im zeitlichen Verlauf verlagerten sich die Zn2+-Ionen in das Zytoplasma, sowie in Zellkerne und Mitochondrien. Es wurde keine Kolokalisation von Zn2+ mit den frühen Endosomen und dem endoplasmatischen Retikulum beobachtet. Die Vorbehandlung der Zellen mit Diethylen-triaminpentaessigsäure (DTPA), als extrazellulärem Komplexbildner, verhinderte den intrazellulären Anstieg von Zn2+ nach Behandlung mit den Partikeln.rnDie Behandlung mit ZnO NP resultierte in einer zeit- und dosisabhängigen Reduktion der zellulären Viabilität, während die intrazelluläre ROS-Konzentrationen in den ersten 30 min leicht und anschließend kontinuierlich bis zum Ende der Messung anstiegen. Außerdem verringerte sich das mitochondriale Membranpotential, während sich die Anzahl der frühapoptotischen Zellen in einer zeitabhängigen Weise erhöhte. rnDNA Doppelstrangbrüche (DNA DSB) wurden mittels Immunfluoreszenz-Färbung der γH2A.X foci sichtbar gemacht und konnten nach Behandlung mit ZnO NP detektiert werden. Die Vorbehandlung mit dem Radikalfänger N-Acetyl-L-Cytein (NAC) resultierte in stark reduzierten intrazellulären ROS-Konzentrationen sowie wenigen DNA DSB. Die DNA Schädigung wurde durch Vorbehandlung mit DTPA ganz verhindert.rnDie Aktivierung der DDR wurde durch die Analyse von ATM, ATR, Chk1, Chk2, p53 und p21 mittels Western Blot und ELISA nach Behandlung mit ZnO NP überprüft. Der ATR/Chk1 Signalweg wurde durch ZnO NP nicht aktiviert. Die Komplexierung von Zn2+ resultierte in einer verminderten ATM/Chk2 Signalwegaktivierung. Es zeigte sich, dass das Abfangen von ROS keinen Effekt auf die ATM/Chk2 Signalwegaktivierung hatte.rnZusammengefasst wurde festgestellt, dass die Exposition mit ZnO NP in der Entstehung von ROS, reduzierter Viabilität und vermindertem mitochondrialem Membranpotential resultiert, sowie zeitabhängig eine frühe Apoptose initiiert. ZnO NP dissoziierten extrazellulär und wurden schnell als Zn2+ über unbekannte Mechanismen internalisiert. Die Zn2+-Ionen wurden im Zytoplasma, sowie besonders in den Mitochondrien und dem Zellkern, akkumuliert. Die DDR Signalgebung wurde durch ZnO NP aktiviert, jedoch nicht durch NAC inhibiert. Es wurde gezeigt, dass DTPA die DDR Aktivierung komplett inhibierte. Die Behandlung mit ZnO NP induzierte DNA DSB. Die Inhibition von ROS reduzierte die DNA DSB und die Komplexierung der Zn2+ verhinderte die Entstehung von DNA DSB.rnDiese Daten sprechen für die Dissoziation der Partikel und die hierbei freigesetzten Zn2+ als Hauptmediator der Genotoxizität metallischer Nanopartikel. rn

Relevância:

90.00% 90.00%

Publicador:

Resumo:

Liquids and gasses form a vital part of nature. Many of these are complex fluids with non-Newtonian behaviour. We introduce a mathematical model describing the unsteady motion of an incompressible polymeric fluid. Each polymer molecule is treated as two beads connected by a spring. For the nonlinear spring force it is not possible to obtain a closed system of equations, unless we approximate the force law. The Peterlin approximation replaces the length of the spring by the length of the average spring. Consequently, the macroscopic dumbbell-based model for dilute polymer solutions is obtained. The model consists of the conservation of mass and momentum and time evolution of the symmetric positive definite conformation tensor, where the diffusive effects are taken into account. In two space dimensions we prove global in time existence of weak solutions. Assuming more regular data we show higher regularity and consequently uniqueness of the weak solution. For the Oseen-type Peterlin model we propose a linear pressure-stabilized characteristics finite element scheme. We derive the corresponding error estimates and we prove, for linear finite elements, the optimal first order accuracy. Theoretical error of the pressure-stabilized characteristic finite element scheme is confirmed by a series of numerical experiments.