6 resultados para Tests for Continuous Lifetime Data
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
A polar stratospheric cloud submodel has been developed and incorporated in a general circulation model including atmospheric chemistry (ECHAM5/MESSy). The formation and sedimentation of polar stratospheric cloud (PSC) particles can thus be simulated as well as heterogeneous chemical reactions that take place on the PSC particles. For solid PSC particle sedimentation, the need for a tailor-made algorithm has been elucidated. A sedimentation scheme based on first order approximations of vertical mixing ratio profiles has been developed. It produces relatively little numerical diffusion and can deal well with divergent or convergent sedimentation velocity fields. For the determination of solid PSC particle sizes, an efficient algorithm has been adapted. It assumes a monodisperse radii distribution and thermodynamic equilibrium between the gas phase and the solid particle phase. This scheme, though relatively simple, is shown to produce particle number densities and radii within the observed range. The combined effects of the representations of sedimentation and solid PSC particles on vertical H2O and HNO3 redistribution are investigated in a series of tests. The formation of solid PSC particles, especially of those consisting of nitric acid trihydrate, has been discussed extensively in recent years. Three particle formation schemes in accordance with the most widely used approaches have been identified and implemented. For the evaluation of PSC occurrence a new data set with unprecedented spatial and temporal coverage was available. A quantitative method for the comparison of simulation results and observations is developed and applied. It reveals that the relative PSC sighting frequency can be reproduced well with the PSC submodel whereas the detailed modelling of PSC events is beyond the scope of coarse global scale models. In addition to the development and evaluation of new PSC submodel components, parts of existing simulation programs have been improved, e.g. a method for the assimilation of meteorological analysis data in the general circulation model, the liquid PSC particle composition scheme, and the calculation of heterogeneous reaction rate coefficients. The interplay of these model components is demonstrated in a simulation of stratospheric chemistry with the coupled general circulation model. Tests against recent satellite data show that the model successfully reproduces the Antarctic ozone hole.
Resumo:
Die Elektrische Impedanztomographie soll als kostengünstige und nebenwirkungsfreie Tomographiemethode in der medizinischen Diagnostik, z. B. in der Mammographie dienen. Mit der EIT läßt sich Krebsgewebe von gesundem Gewebe unterscheiden, da es eine signifikant erhöhte Leitfähigkeit aufweist. Damit kann die EIT als Ergänzung zu den klassischen Diagnoseverfahren dienen. So ist z.B. bei jungen Frauen mit einem dichteren Fettgewebe die Identifizierung eines Mammakarzinoms mit der Röntgentomographie nicht immer möglich. Ziel dieser Arbeit war es, einen Prototypen für die Impedanztomographie zu entwickeln und mögliche Anwendungen zu testen. Der Tomograph ist in Zusammenarbeit mit Dr. K.H.Georgi gebaut worden. Der Tomograph erlaubt es niederohmige, Wechselströme an Elektroden auf der Körperoberfläche einzuspeisen. Die Potentiale können an diesen Elektroden programmierbar vorgegeben werden. Weitere hochohmige Elektroden dienen zur Potentialmessung. Um den Hautwiderstand zu überbrücken, werden Wechselstromfrequenzen von 20-100 kHz eingesetzt. Mit der Möglichkeit der Messung von Strom und Potential auf unterschiedlichen Elektroden kann man das Problem des nur ungenau bekannten Hautwiderstandes umgehen. Prinzipiell ist es mit dem Mainzer EIT System möglich, 100 Messungen in der Sekunde durchzuführen. Auf der Basis von mit dem Mainzer EIT gewonnenen Daten sollten unterschiedliche Rekonstruktionsalgorithmen getestet und weiterentwickelt werden. In der Vergangenheit sind verschiedene Rekonstruktionsalgorithmen für das mathematisch schlecht gestellte EIT Problem betrachtet worden. Sie beruhen im Wesentlichen auf zwei Strategien: Die Linearisierung und iterative Lösung des Problems und Gebietserkennungsmethoden. Die iterativen Verfahren wurden von mir dahingehend modifiziert, dass Leitfähigkeitserhöhungen und Leitfähigkeitserniedrigungen gleichberechtigt behandelt werden können. Für den modifizierten Algorithmus wurden zwei verschiedene Rekonstruktionsalgorithmen programmiert und mit synthetischen Daten getestet. Zum einen die Rekonstruktion über die approximative Inverse, zum anderen eine Rekonstruktion mit einer Diskretisierung. Speziell für die Rekonstruktion mittels Diskretisierung wurde eine Methode entwickelt, mit der zusätzliche Informationen in der Rekonstruktion berücksichtigt werden können, was zu einer Verbesserung der Rekonstruktion beiträgt. Der Gebietserkennungsalgorithmus kann diese Zusatzinformationen liefern. In der Arbeit wurde ein neueres Verfahren für die Gebietserkennung derart modifiziert, dass eine Rekonstruktion auch für getrennte Strom- und Spannungselektroden möglich wurde. Mit Hilfe von Differenzdaten lassen sich ausgezeichnete Rekonstruktionen erzielen. Für die medizinischen Anwendungen sind aber Absolutmessungen nötig, d.h. ohne Leermessung. Der erwartende Effekt einer Inhomogenität in der Leitfähigkeit ist sehr klein und als Differenz zweier grosser Zahlen sehr schwierig zu bestimmen. Die entwickelten Algorithmen kommen auch gut mit Absolutdaten zurecht.
Resumo:
Auf Paulfallen basierende Experimente spielen eine wichtige Rolle in verschiedenen Bereichen der Physik, z.B. der Atomphysik zum Test theoretischer Modelle und der Massenspektroskopie. Die vorliegende Arbeit widmet sich beiden Themengebieten und gliedert sich entsprechend in zwei Teilbereiche: 1) Erdalkali-Ionen sind aufgrund ihrer Energieniveaus optimale Kandidaten für Laserspektroskopie-Experimente mit Ionenfallen und bestens geeignet, um mittels der spektroskopischen Daten die theoretischen Modelle zu testen. Lediglich für Ra+ fehlen bislang als einzigem Erdalkali-Ion diese Daten wie z.B. die Lebensdauern der metastabilen Niveaus. Diese wären auch von Interesse für bereits geplante Radium-Experimente zur Paritätsverletzung. Im ersten Teil dieser Arbeit wird der Aufbau eines Laser-Paulfallenexperiments zur Messung der Lebensdauer des 6D3/2 Zustands von 226Ra+ dokumentiert und es werden Testmessungen mit 138Ba+ vorgestellt. 2) Für die Verwendung der Paulfalle in der Massenspektroskopie und zur Analyse von Reaktionsprodukten ist die Kenntnis der Lage der im Speicherbereich auftretenden nichtlinearen Resonanzen wesentlich, ebenso wie deren Veränderung durch Dämpfung und Raumladung. Im zweiten Teil dieser Arbeit werden detaillierte Untersuchungen der Speicherung großer puffergasgekühlter Ionenwolken an zwei unterschiedlichen Paulfallen-Experimenten vorgestellt. Am ersten wurden 138Ba+-Ionenwolken kontinuierlich durch Laserspektroskopie bzw. über einen elektronischen Nachweis beobachtet, während das zweite N2+-Molekülionen automatisiert destruktiv nachwies. Am N2+-Experiment wurden zwei hochaufgelöste Messungen des ersten Speicherbereichs durchgeführt, die erstmals eine direkte Überprüfung der theoretisch berechneten Verläufe der Resonanzen mit experimentellen Daten erlauben. Die Nachweiseichung ermöglichte dabei zum ersten Mal die Angabe absoluter Ionenzahlen. Im Gegensatz zu vergleichbaren früheren Messungen wurden hierbei die sich überlagernden Speicherbereiche von 4 simultan gespeicherten Ionensorten beobachtet und zur Analyse der Resonanzen herangezogen. Die nichtlinearen Resonanzen wurden untersucht bei Variation von Puffergasdruck und Ionenzahl, wobei kollektive Resonanzen ohne zusätzliche externe Anregung beobachtet wurden. Die gemessenen Raumladungsverschiebungen wurden mit theoretischen Modellen verglichen. Bei Variation des Puffergasdrucks wurde mit Bariumionen die räumliche Ausdehnung der Ionenwolke gemessen und mit Stickstoffionen die Verschiebung des Punktes optimaler Speicherung bestimmt. Dabei wurde festgestellt, daß der zum Ioneneinfang optimale Puffergasdruck kleiner ist als der, bei dem die längsten Speicherdauern erzielt werden. Mit gespeicherten N2+-Ionen wurde die Position extern angeregter kollektiver und individueller Resonanzen im Frequenzspektrum bei Änderung der Parameter Ionenzahl, Puffergasdruck und Dauer der Anregung untersucht, ebenso wie die Resonanzform, die mit theoretischen Linienformen verglichen wurde. Bei Änderung der Fallenparameter wurden verstärkende Effekte zwischen nahen kollektiven Resonanzen festgestellt. Die Beobachtung, welche der im Frequenzspektrum vorher identifizierten Bewegungs-Resonanzen sich bei Variation der Fallenparameter a bzw. q überlagern, ermöglicht eine bislang nicht beschriebene einfache Methode der Bestimmung von nichtlinearen Resonanzen im Stabilitätsdiagramm.
Resumo:
A major challenge in imaging is the detection of small amounts of molecules of interest. In the case of magnetic resonance imaging (MRI) their signals are typically concealed by the large background signal of e.g. the tissue of the body. This problem can be tackled by hyperpolarization which increases the NMR signals up to several orders of magnitude. However, this strategy is limited for 1H, the most widely used nucleus in NMR andrnMRI, because the enormous number of protons in the body screen the small amount of hyperpolarized ones.Here, I describe a method giving rise to high 1H MRI contrast for hyperpolarized molecules against a large background signal. The contrast is based on the J-coupling induced rephasing of the NMR signal of molecules hyperpolarized via parahydrogen induce polarization (PHIP) and it can easily be implemented in common pulse sequences.rnrnHyperpolarization methods typically require expensive technical equipment (e.g. lasers or microwaves) and most techniques work only in batch mode, thus the limited lifetime of the hyperpolarization is limiting its applications. Therefore, the second part of my thesis deals with the simple and efficient generation of an hyperpolarization.These two achievements open up alternative opportunities to use the standard MRI nucleus 1H for e.g. metabolic imaging in the future.
Resumo:
Die oberflächennahe Geothermie leistet im Bereich der Nutzung regenerativer Wärme einen wichtigen Beitrag zum Klima- und Umweltschutz. Um die technische Nutzung oberflächennaher Geothermie zu optimieren, ist die Kenntnis der Beschaffenheit des geologischen Untergrundes ausschlaggebend. Die vorliegende Dissertation befasst sich mit der Bestimmung verschiedener Untergrundparameter an einem Erdwärmesondenfeld. Es wurden Untersuchungen zur Bestimmung der Wärmeleitfähigkeit wie der enhanced Thermal Response Test (eTRT), sowie eine Untergrund-Temperaturüberwachung im ersten Betriebsjahr durchgeführt. Die Überwachung zeigte keine gegenseitige Beeinflussung einzelner Sonden. Ein Vergleich zwischen dem geplanten und dem tatsächlichem Wärmebedarf des ersten Betriebsjahres ergab eine Abweichung von ca. 35%. Dies zeigt, dass die Nutzungsparameter der Anlage deren Effizienz maßgeblich beeinflussen können. Der am Beispielobjekt praktisch durchgeführte eTRT wurde mittels numerischer Modellierung auf seine Reproduzierbarkeit hin überprüft. Bei einem rein konduktiven Wärmetransport im Untergrund betrug die maximale Abweichung der Messung selbst unter ungünstigen Bedingungen lediglich ca. 6% vom zu erwartenden Wert. Die Detektion von grundwasserdurchflossenen Schichten ist in den Modellen ebenfalls gut abbildbar. Problematisch bleibt die hohe Abhängigkeit des Tests von einer konstanten Wärmezufuhr. Lediglich die Bestimmung der Wärmeleitfähigkeit über das Relaxationsverhalten des Untergrundes liefert bei Wärmeeintragsschwankungen hinreichend genaue Ergebnisse. Die mathematische Nachbearbeitung von fehlerhaften Temperaturkurven bietet einen Einstiegspunkt für weiterführende Forschung.
Resumo:
In vielen Industriezweigen, zum Beispiel in der Automobilindustrie, werden Digitale Versuchsmodelle (Digital MockUps) eingesetzt, um die Konstruktion und die Funktion eines Produkts am virtuellen Prototypen zu überprüfen. Ein Anwendungsfall ist dabei die Überprüfung von Sicherheitsabständen einzelner Bauteile, die sogenannte Abstandsanalyse. Ingenieure ermitteln dabei für bestimmte Bauteile, ob diese in ihrer Ruhelage sowie während einer Bewegung einen vorgegeben Sicherheitsabstand zu den umgebenden Bauteilen einhalten. Unterschreiten Bauteile den Sicherheitsabstand, so muss deren Form oder Lage verändert werden. Dazu ist es wichtig, die Bereiche der Bauteile, welche den Sicherhabstand verletzen, genau zu kennen. rnrnIn dieser Arbeit präsentieren wir eine Lösung zur Echtzeitberechnung aller den Sicherheitsabstand unterschreitenden Bereiche zwischen zwei geometrischen Objekten. Die Objekte sind dabei jeweils als Menge von Primitiven (z.B. Dreiecken) gegeben. Für jeden Zeitpunkt, in dem eine Transformation auf eines der Objekte angewendet wird, berechnen wir die Menge aller den Sicherheitsabstand unterschreitenden Primitive und bezeichnen diese als die Menge aller toleranzverletzenden Primitive. Wir präsentieren in dieser Arbeit eine ganzheitliche Lösung, welche sich in die folgenden drei großen Themengebiete unterteilen lässt.rnrnIm ersten Teil dieser Arbeit untersuchen wir Algorithmen, die für zwei Dreiecke überprüfen, ob diese toleranzverletzend sind. Hierfür präsentieren wir verschiedene Ansätze für Dreiecks-Dreiecks Toleranztests und zeigen, dass spezielle Toleranztests deutlich performanter sind als bisher verwendete Abstandsberechnungen. Im Fokus unserer Arbeit steht dabei die Entwicklung eines neuartigen Toleranztests, welcher im Dualraum arbeitet. In all unseren Benchmarks zur Berechnung aller toleranzverletzenden Primitive beweist sich unser Ansatz im dualen Raum immer als der Performanteste.rnrnDer zweite Teil dieser Arbeit befasst sich mit Datenstrukturen und Algorithmen zur Echtzeitberechnung aller toleranzverletzenden Primitive zwischen zwei geometrischen Objekten. Wir entwickeln eine kombinierte Datenstruktur, die sich aus einer flachen hierarchischen Datenstruktur und mehreren Uniform Grids zusammensetzt. Um effiziente Laufzeiten zu gewährleisten ist es vor allem wichtig, den geforderten Sicherheitsabstand sinnvoll im Design der Datenstrukturen und der Anfragealgorithmen zu beachten. Wir präsentieren hierzu Lösungen, die die Menge der zu testenden Paare von Primitiven schnell bestimmen. Darüber hinaus entwickeln wir Strategien, wie Primitive als toleranzverletzend erkannt werden können, ohne einen aufwändigen Primitiv-Primitiv Toleranztest zu berechnen. In unseren Benchmarks zeigen wir, dass wir mit unseren Lösungen in der Lage sind, in Echtzeit alle toleranzverletzenden Primitive zwischen zwei komplexen geometrischen Objekten, bestehend aus jeweils vielen hunderttausend Primitiven, zu berechnen. rnrnIm dritten Teil präsentieren wir eine neuartige, speicheroptimierte Datenstruktur zur Verwaltung der Zellinhalte der zuvor verwendeten Uniform Grids. Wir bezeichnen diese Datenstruktur als Shrubs. Bisherige Ansätze zur Speicheroptimierung von Uniform Grids beziehen sich vor allem auf Hashing Methoden. Diese reduzieren aber nicht den Speicherverbrauch der Zellinhalte. In unserem Anwendungsfall haben benachbarte Zellen oft ähnliche Inhalte. Unser Ansatz ist in der Lage, den Speicherbedarf der Zellinhalte eines Uniform Grids, basierend auf den redundanten Zellinhalten, verlustlos auf ein fünftel der bisherigen Größe zu komprimieren und zur Laufzeit zu dekomprimieren.rnrnAbschießend zeigen wir, wie unsere Lösung zur Berechnung aller toleranzverletzenden Primitive Anwendung in der Praxis finden kann. Neben der reinen Abstandsanalyse zeigen wir Anwendungen für verschiedene Problemstellungen der Pfadplanung.