5 resultados para encoding of measurement streams

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

CONCLUSIONS The focus of this work was the investigation ofanomalies in Tg and dynamics at polymer surfaces. Thethermally induced decay of hot-embossed polymer gratings isstudied using laser-diffraction and atomic force microscopy(AFM). Monodisperse PMMA and PS are selected in the Mwranges of 4.2 to 65.0 kg/mol and 3.47 to 65.0 kg/mol,respectively. Two different modes of measurement were used:the one mode uses temperature ramps to obtain an estimate ofthe near-surface glass temperature, Tdec,0; the other modeinvestigates the dynamics at a constant temperature aboveTg. The temperature-ramp experiments reveal Tdec,0 valuesvery close to the Tg,bulk values, as determined bydifferential scanning calorimetry (DSC). The PMMA of65.0 kg/mol shows a decreased value of Tg, while the PS samples of 3.47 and 10.3 kg/mol (Mwof an amplitude reduction and a finalstate is smaller in the case of PS than in the case of PMMA.This suggests a higher degree of cooperation between thepolymer chains for PMMA than for PS chains even near thesurface. A reduction of the investigated near-surface region byusing smaller grating constants and AFM did not show achange in the near-surface Tdec,0. Decay experiments were performed at a variety ofconstant temperatures. Master plots are produced by shifting the decay curves, on the logarithmic time scale,with respect to a reference curve at Tref. From thisprocedure shift factors were extracted. An Arrhenius analysis of the shift factors reveals adecreasing non-Arrhenius (fragile) behavior with molecular weight for PMMA. PS is fragile for all Mw asexpected for linear polymers. Non-Arrhenius behavior allowsone to fit the shift factors to the William-Landel-Ferry(WLF) equation. The WLF parameters for the varying molecular weights ofPMMA and PS were extracted and compared to the values frombulk rheology measurements. Assuming cg1=16+/-2 at Tg, assuggested by Angell, the glass temperature was determinedfrom the dynamic decay experiments. Within the experimentalerrors, the values for Tg,surf(c1=16) and T_g,bulk(c1=16)tend to be smaller than Tdec,0 and Tg,bulk fromtemperature-ramp and DSC measurements, but confirm thecourse of the values with increasing Mw. The comparison of the fragilities (temperaturedependence of the polymer properties at Tg) near the surfaceand in the bulk shows a higher fragility for PS near thesurface, a lower one for PMMA with molecular weights of 4.2and 65.0 kg/mol. The different surface behavior of PS istraced back to a lower degree of cooperation and a largerfree volume fraction.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Spannungsumlagerungen in Mineralen und Gesteinen induzieren in geologisch aktiven Bereichen mikromechanische und seismische Prozesse, wodurch eine schwache natürliche elektromagnetische Strahlung im Niederfrequenzbereich emittiert wird. Die elektromagnetischen Emissionen von nichtleitenden Mineralen sind auf dielektrische Polarisation durch mehrere physikalische Effekte zurückzuführen. Eine gerichtete mechanische Spannung führt zu einer ebenso gerichteten elektromagnetischen Emission. Die Quellen der elektromagnetischen Emissionen sind bekannt, jedoch können sie noch nicht eindeutig den verschiedenen Prozessen in der Natur zugeordnet werden, weshalb im Folgenden von einem seismo-elektromagnetischen Phänomen (SEM) gesprochen wird. Mit der neuentwickelten NPEMFE-Methode (Natural Pulsed Electromagnetic Field of Earth) können die elektromagnetischen Impulse ohne Bodenkontakt registriert werden. Bereiche der Erdkruste mit Spannungsumlagerungen (z.B. tektonisch aktive Störungen, potenzielle Hangrutschungen, Erdfälle, Bergsenkungen, Firstschläge) können als Anomalie erkannt und abgegrenzt werden. Basierend auf dem heutigen Kenntnisstand dieser Prozesse wurden Hangrutschungen und Locker- und Festgesteine, in denen Spannungsumlagerungen stattfinden, mit einem neuentwickelten Messgerät, dem "Cereskop", im Mittelgebirgsraum (Rheinland-Pfalz, Deutschland) und im alpinen Raum (Vorarlberg, Österreich, und Fürstentum Liechtenstein) erkundet und die gewonnenen Messergebnisse mit klassischen Verfahren aus Ingenieurgeologie, Geotechnik und Geophysik in Bezug gesetzt. Unter Feldbedingungen zeigte sich großenteils eine gute Übereinstimmung zwischen den mit dem "Cereskop" erkundeten Anomalien und den mit den konventionellen Verfahren erkundeten Spannungszonen. Auf Grundlage der bisherigen Kenntnis und unter Einbeziehung von Mehrdeutigkeiten werden die Messergebnisse analysiert und kritisch beurteilt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Metallische Nanopartikel und ihre Oxide (z.B. ZnO NP, TiO2 NP und Fe2O3 NP) werden aufgrund ihrer chemischen und physikalischen Eigenschaften häufig als Additive in der Reifenproduktion, in Katalysatoren, Lebensmitteln, Arzneimitteln und Kosmetikprodukten verwendet. Künftig wird ein kontinuierlicher Anstieg der industriellen Anwendung (~ 1663 Tonnen im Jahr 2025) mit gesteigerter Freisetzung in die Umwelt erwartet, was zwangsläufig zu einer vermehrten Aufnahme über das respiratorische Epithel führt. Metalldampffieber ist als gesundheitsschädigender Effekt von Metalloxid-haltigen Aerosolen (z.B. ZnO) nach Inhalation bekannt. Immunreaktionen, wie beispielsweise Entzündungen, werden häufig mit der Entstehung von Sauerstoffradikalen (ROS) in Verbindung gebracht, die wiederum zu DNA-Schäden führen können. Drei mögliche Ursachen der Genotoxität werden angenommen: direkte Interaktion von Nanopartikeln mit intrazellulären Strukturen, Interaktion von Ionen dissoziierter Partikel mit intrazellulären Strukturen sowie die Entstehung von ROS initiiert durch Partikel oder Ionen.rnDie vorliegende Studie befasst sich mit den Mechanismen der Genotoxizität von ZnO Nanopartikeln (ZnO NP), als Beispiel für metallische Nanopartikel, im respiratorischen Epithel. In der Studie wurde gezielt die intrazelluläre Aufnahme und Verteilung von ZnO NP, deren Toxizität, deren DNA schädigendes Potential sowie die Aktivierung der DNA damage response (DDR) analysiert.rnEs konnten kaum internalisierte ZnO NP mittels TEM detektiert werden. Innerhalb der ersten Sekunden nach Behandlung mit ZnO NP wurde spektrofluorometrisch ein starker Anstieg der intrazellulären Zn2+ Konzentration gemessen. In unbehandelten Zellen war Zn2+ in granulären Strukturen lokalisiert. Die Behandlung mit ZnO NP führte zu einer Akkumulation von Zn2+ in diesen Strukturen. Im zeitlichen Verlauf verlagerten sich die Zn2+-Ionen in das Zytoplasma, sowie in Zellkerne und Mitochondrien. Es wurde keine Kolokalisation von Zn2+ mit den frühen Endosomen und dem endoplasmatischen Retikulum beobachtet. Die Vorbehandlung der Zellen mit Diethylen-triaminpentaessigsäure (DTPA), als extrazellulärem Komplexbildner, verhinderte den intrazellulären Anstieg von Zn2+ nach Behandlung mit den Partikeln.rnDie Behandlung mit ZnO NP resultierte in einer zeit- und dosisabhängigen Reduktion der zellulären Viabilität, während die intrazelluläre ROS-Konzentrationen in den ersten 30 min leicht und anschließend kontinuierlich bis zum Ende der Messung anstiegen. Außerdem verringerte sich das mitochondriale Membranpotential, während sich die Anzahl der frühapoptotischen Zellen in einer zeitabhängigen Weise erhöhte. rnDNA Doppelstrangbrüche (DNA DSB) wurden mittels Immunfluoreszenz-Färbung der γH2A.X foci sichtbar gemacht und konnten nach Behandlung mit ZnO NP detektiert werden. Die Vorbehandlung mit dem Radikalfänger N-Acetyl-L-Cytein (NAC) resultierte in stark reduzierten intrazellulären ROS-Konzentrationen sowie wenigen DNA DSB. Die DNA Schädigung wurde durch Vorbehandlung mit DTPA ganz verhindert.rnDie Aktivierung der DDR wurde durch die Analyse von ATM, ATR, Chk1, Chk2, p53 und p21 mittels Western Blot und ELISA nach Behandlung mit ZnO NP überprüft. Der ATR/Chk1 Signalweg wurde durch ZnO NP nicht aktiviert. Die Komplexierung von Zn2+ resultierte in einer verminderten ATM/Chk2 Signalwegaktivierung. Es zeigte sich, dass das Abfangen von ROS keinen Effekt auf die ATM/Chk2 Signalwegaktivierung hatte.rnZusammengefasst wurde festgestellt, dass die Exposition mit ZnO NP in der Entstehung von ROS, reduzierter Viabilität und vermindertem mitochondrialem Membranpotential resultiert, sowie zeitabhängig eine frühe Apoptose initiiert. ZnO NP dissoziierten extrazellulär und wurden schnell als Zn2+ über unbekannte Mechanismen internalisiert. Die Zn2+-Ionen wurden im Zytoplasma, sowie besonders in den Mitochondrien und dem Zellkern, akkumuliert. Die DDR Signalgebung wurde durch ZnO NP aktiviert, jedoch nicht durch NAC inhibiert. Es wurde gezeigt, dass DTPA die DDR Aktivierung komplett inhibierte. Die Behandlung mit ZnO NP induzierte DNA DSB. Die Inhibition von ROS reduzierte die DNA DSB und die Komplexierung der Zn2+ verhinderte die Entstehung von DNA DSB.rnDiese Daten sprechen für die Dissoziation der Partikel und die hierbei freigesetzten Zn2+ als Hauptmediator der Genotoxizität metallischer Nanopartikel. rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Verifikation numerischer Modelle ist für die Verbesserung der Quantitativen Niederschlagsvorhersage (QNV) unverzichtbar. Ziel der vorliegenden Arbeit ist die Entwicklung von neuen Methoden zur Verifikation der Niederschlagsvorhersagen aus dem regionalen Modell der MeteoSchweiz (COSMO-aLMo) und des Globalmodells des Europäischen Zentrums für Mittelfristvorhersage (engl.: ECMWF). Zu diesem Zweck wurde ein neuartiger Beobachtungsdatensatz für Deutschland mit stündlicher Auflösung erzeugt und angewandt. Für die Bewertung der Modellvorhersagen wurde das neue Qualitätsmaß „SAL“ entwickelt. Der neuartige, zeitlich und räumlich hoch-aufgelöste Beobachtungsdatensatz für Deutschland wird mit der während MAP (engl.: Mesoscale Alpine Program) entwickelten Disaggregierungsmethode erstellt. Die Idee dabei ist, die zeitlich hohe Auflösung der Radardaten (stündlich) mit der Genauigkeit der Niederschlagsmenge aus Stationsmessungen (im Rahmen der Messfehler) zu kombinieren. Dieser disaggregierte Datensatz bietet neue Möglichkeiten für die quantitative Verifikation der Niederschlagsvorhersage. Erstmalig wurde eine flächendeckende Analyse des Tagesgangs des Niederschlags durchgeführt. Dabei zeigte sich, dass im Winter kein Tagesgang existiert und dies vom COSMO-aLMo gut wiedergegeben wird. Im Sommer dagegen findet sich sowohl im disaggregierten Datensatz als auch im COSMO-aLMo ein deutlicher Tagesgang, wobei der maximale Niederschlag im COSMO-aLMo zu früh zwischen 11-14 UTC im Vergleich zu 15-20 UTC in den Beobachtungen einsetzt und deutlich um das 1.5-fache überschätzt wird. Ein neues Qualitätsmaß wurde entwickelt, da herkömmliche, gitterpunkt-basierte Fehlermaße nicht mehr der Modellentwicklung Rechnung tragen. SAL besteht aus drei unabhängigen Komponenten und basiert auf der Identifikation von Niederschlagsobjekten (schwellwertabhängig) innerhalb eines Gebietes (z.B. eines Flusseinzugsgebietes). Berechnet werden Unterschiede der Niederschlagsfelder zwischen Modell und Beobachtungen hinsichtlich Struktur (S), Amplitude (A) und Ort (L) im Gebiet. SAL wurde anhand idealisierter und realer Beispiele ausführlich getestet. SAL erkennt und bestätigt bekannte Modelldefizite wie das Tagesgang-Problem oder die Simulation zu vieler relativ schwacher Niederschlagsereignisse. Es bietet zusätzlichen Einblick in die Charakteristiken der Fehler, z.B. ob es sich mehr um Fehler in der Amplitude, der Verschiebung eines Niederschlagsfeldes oder der Struktur (z.B. stratiform oder kleinskalig konvektiv) handelt. Mit SAL wurden Tages- und Stundensummen des COSMO-aLMo und des ECMWF-Modells verifiziert. SAL zeigt im statistischen Sinne speziell für stärkere (und damit für die Gesellschaft relevante Niederschlagsereignisse) eine im Vergleich zu schwachen Niederschlägen gute Qualität der Vorhersagen des COSMO-aLMo. Im Vergleich der beiden Modelle konnte gezeigt werden, dass im Globalmodell flächigere Niederschläge und damit größere Objekte vorhergesagt werden. Das COSMO-aLMo zeigt deutlich realistischere Niederschlagsstrukturen. Diese Tatsache ist aufgrund der Auflösung der Modelle nicht überraschend, konnte allerdings nicht mit herkömmlichen Fehlermaßen gezeigt werden. Die im Rahmen dieser Arbeit entwickelten Methoden sind sehr nützlich für die Verifikation der QNV zeitlich und räumlich hoch-aufgelöster Modelle. Die Verwendung des disaggregierten Datensatzes aus Beobachtungen sowie SAL als Qualitätsmaß liefern neue Einblicke in die QNV und lassen angemessenere Aussagen über die Qualität von Niederschlagsvorhersagen zu. Zukünftige Anwendungsmöglichkeiten für SAL gibt es hinsichtlich der Verifikation der neuen Generation von numerischen Wettervorhersagemodellen, die den Lebenszyklus hochreichender konvektiver Zellen explizit simulieren.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Das Standardmodell der Teilchenphysik, das drei der vier fundamentalen Wechselwirkungen beschreibt, stimmt bisher sehr gut mit den Messergebnissen der Experimente am CERN, dem Fermilab und anderen Forschungseinrichtungen überein. rnAllerdings können im Rahmen dieses Modells nicht alle Fragen der Teilchenphysik beantwortet werden. So lässt sich z.B. die vierte fundamentale Kraft, die Gravitation, nicht in das Standardmodell einbauen.rnDarüber hinaus hat das Standardmodell auch keinen Kandidaten für dunkle Materie, die nach kosmologischen Messungen etwa 25 % unseres Universum ausmacht.rnAls eine der vielversprechendsten Lösungen für diese offenen Fragen wird die Supersymmetrie angesehen, die eine Symmetrie zwischen Fermionen und Bosonen einführt. rnAus diesem Modell ergeben sich sogenannte supersymmetrische Teilchen, denen jeweils ein Standardmodell-Teilchen als Partner zugeordnet sind.rnEin mögliches Modell dieser Symmetrie ist das R-Paritätserhaltende mSUGRA-Modell, falls Supersymmetrie in der Natur realisiert ist.rnIn diesem Modell ist das leichteste supersymmetrische Teilchen (LSP) neutral und schwach wechselwirkend, sodass es nicht direkt im Detektor nachgewiesen werden kann, sondern indirekt über die vom LSP fortgetragene Energie, die fehlende transversale Energie (etmiss), nachgewiesen werden muss.rnrnDas ATLAS-Experiment wird 2010 mit Hilfe des pp-Beschleunigers LHC mit einer Schwerpunktenergie von sqrt(s)=7-10 TeV mit einer Luminosität von 10^32 #/(cm^2*s) mit der Suche nach neuer Physik starten.rnDurch die sehr hohe Datenrate, resultierend aus den etwa 10^8 Auslesekanälen des ATLAS-Detektors bei einer Bunchcrossingrate von 40 MHz, wird ein Triggersystem benötigt, um die zu speichernde Datenmenge zu reduzieren.rnDabei muss ein Kompromiss zwischen der verfügbaren Triggerrate und einer sehr hohen Triggereffizienz für die interessanten Ereignisse geschlossen werden, da etwa nur jedes 10^8-te Ereignisse für die Suche nach neuer Physik interessant ist.rnZur Erfüllung der Anforderungen an das Triggersystem wird im Experiment ein dreistufiges System verwendet, bei dem auf der ersten Triggerstufe mit Abstand die höchste Datenreduktion stattfindet.rnrnIm Rahmen dieser Arbeit rn%, die vollständig auf Monte-Carlo-Simulationen basiert, rnist zum einen ein wesentlicher Beitrag zum grundlegenden Verständnis der Eigenschaft der fehlenden transversalen Energie auf der ersten Triggerstufe geleistet worden.rnZum anderen werden Methoden vorgestellt, mit denen es möglich ist, die etmiss-Triggereffizienz für Standardmodellprozesse und mögliche mSUGRA-Szenarien aus Daten zu bestimmen. rnBei der Optimierung der etmiss-Triggerschwellen für die erste Triggerstufe ist die Triggerrate bei einer Luminosität von 10^33 #/(cm^2*s) auf 100 Hz festgelegt worden.rnFür die Triggeroptimierung wurden verschiedene Simulationen benötigt, bei denen eigene Entwicklungsarbeit eingeflossen ist.rnMit Hilfe dieser Simulationen und den entwickelten Optimierungsalgorithmen wird gezeigt, dass trotz der niedrigen Triggerrate das Entdeckungspotential (für eine Signalsignifikanz von mindestens 5 sigma) durch Kombinationen der etmiss-Schwelle mit Lepton bzw. Jet-Triggerschwellen gegenüber dem bestehenden ATLAS-Triggermenü auf der ersten Triggerstufe um bis zu 66 % erhöht wird.