11 resultados para High-dimensional data visualization

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ice clouds have a strong effect on the Earth-atmosphere radiative energy balance, on the distribution of condensable gases in the atmosphere, as well as on the chemical composition of the air. The ice particles in these clouds can take on a variety of shapes which makes the description of the cloud microphysical properties more difficult. In the tropical upper troposphere/lower stratosphere (UTLS), a region where ice cloud abundance is relatively high, different types of ice clouds can be observed. However, in situ measurements are rare due to the high altitude of these clouds and the few available research aircraft, only three worldwide, that can fly at such altitudes.rnThis work focuses on in situ measurements of the tropical UTLS clouds performedrnwith a Cloud Imaging Probe (CIP) and a Forward Scattering Spectrometer Probern(FSSP-100), whereof the CIP is the key instrument of this thesis. The CIP is anrnairborne in situ instrument that obtains two-dimensional shadow images of cloud particles. Several cloud microphysical parameters can be derived from these measurements, e.g. number concentrations and size distributions. In order to obtain a high quality data set, a careful image analysis and several corrections need to be applied to the CIP observations. These methods are described in detail.rnMeasurements within the tropical UTLS have been performed during two campaigns:rnSCOUT-O3, 2005 in Northern Australia and SCOUT-AMMA, 2006 inWest Africa. Thernobtained data set includes first observations of subvisible cirrus clouds over a continental area and observations of the anvils of deep convective clouds. The latter can be further divided into clouds in mesoscale convective system outflows of different ages and clouds in overshooting cloud turrets that even penetrated the stratosphere. The microphysical properties of these three cloud types are discussed in detail. Furthermore, the vertical structure of the ice clouds in the UTLS is investigated. The values of the microphysical parameters were found to decrease with increasing altitude in the upper troposphere. Particle numbers and maximum sizes were also decreasing with increasing age of the outflow clouds. Further differences between the deep convective clouds and subvisible cirrus were found in the particle morphology as well as in the ratio of the observed aerosol particles to cloud particles which indicates that the different freezing processes (deposition, contact, immersion freezing) play different roles in the formation of the respective clouds. For the achievementrnof a better microphysical characterisation and description numerical fits have been adjusted onto the cloud particle size distributions of the subvisible cirrus as well as on the size distributions of the clouds at different altitudes in the UTLS.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit der Synthese und Charakterisierung von Polymeren mit redox-funktionalen Phenothiazin-Seitenketten. Phenothiazin und seine Derivate sind kleine Redoxeinheiten, deren reversibles Redoxverhalten mit electrochromen Eigenschaften verbunden ist. Das besondere an Phenothiazine ist die Bildung von stabilen Radikalkationen im oxidierten Zustand. Daher können Phenothiazine als bistabile Moleküle agieren und zwischen zwei stabilen Redoxzuständen wechseln. Dieser Schaltprozess geht gleichzeitig mit einer Farbveränderung an her.rnrnIm Rahmen dieser Arbeit wird die Synthese neuartiger Phenothiazin-Polymere mittels radikalischer Polymerisation beschrieben. Phenothiazin-Derivate wurden kovalent an aliphatischen und aromatischen Polymerketten gebunden. Dies erfolgte über zwei unterschiedlichen synthetischen Routen. Die erste Route beinhaltet den Einsatz von Vinyl-Monomeren mit Phenothiazin Funktionalität zur direkten Polymerisation. Die zweite Route verwendet Amin modifizierte Phenothiazin-Derivate zur Funktionalisierung von Polymeren mit Aktivester-Seitenketten in einer polymeranalogen Reaktion. rnrnPolymere mit redox-funktionalen Phenothiazin-Seitenketten sind aufgrund ihrer Elektron-Donor-Eigenschaften geeignete Kandidaten für die Verwendung als Kathodenmaterialien. Zur Überprüfung ihrer Eignung wurden Phenothiazin-Polymere als Elektrodenmaterialien in Lithium-Batteriezellen eingesetzt. Die verwendeten Polymere wiesen gute Kapazitätswerte von circa 50-90 Ah/kg sowie schnelle Aufladezeiten in der Batteriezelle auf. Besonders die Aufladezeiten sind 5-10 mal höher als konventionelle Lithium-Batterien. Im Hinblick auf Anzahl der Lade- und Entladezyklen, erzielten die Polymere gute Werte in den Langzeit-Stabilitätstests. Insgesamt überstehen die Polymere 500 Ladezyklen mit geringen Veränderungen der Anfangswerte bezüglich Ladezeiten und -kapazitäten. Die Langzeit-Stabilität hängt unmittelbar mit der Radikalstabilität zusammen. Eine Stabilisierung der Radikalkationen gelang durch die Verlängerung der Seitenkette am Stickstoffatom des Phenothiazins und der Polymerhauptkette. Eine derartige Alkyl-Substitution erhöht die Radikalstabilität durch verstärkte Wechselwirkung mit dem aromatischen Ring und verbessert somit die Batterieleistung hinsichtlich der Stabilität gegenüber Lade- und Entladezyklen. rnrnDes Weiteren wurde die praktische Anwendung von bistabilen Phenothiazin-Polymeren als Speichermedium für hohe Datendichten untersucht. Dazu wurden dünne Filme des Polymers auf leitfähigen Substraten elektrochemisch oxidiert. Die elektrochemische Oxidation erfolgte mittels Rasterkraftmikroskopie in Kombination mit leitfähigen Mikroskopspitzen. Mittels dieser Technik gelang es, die Oberfläche des Polymers im nanoskaligen Bereich zu oxidieren und somit die lokale Leitfähigkeit zu verändern. Damit konnten unterschiedlich große Muster lithographisch beschrieben und aufgrund der Veränderung ihrer Leitfähigkeit detektiert werden. Der Schreibprozess führte nur zu einer Veränderung der lokalen Leitfähigkeit ohne die topographische Beschaffenheit des Polymerfilms zu beeinflussen. Außerdem erwiesen sich die Muster als besonders stabil sowohl mechanisch als auch über die Zeit.rnrnZum Schluss wurden neue Synthesestrategien entwickelt um mechanisch stabile als auch redox-funktionale Oberflächen zu produzieren. Mit Hilfe der oberflächen-initiierten Atomtransfer-Radikalpolymerisation wurden gepfropfte Polymerbürsten mit redox-funktionalen Phenothiazin-Seitenketten hergestellt und mittels Röntgenmethoden und Rasterkraftmikroskopie analysiert. Eine der Synthesestrategien geht von gepfropften Aktivesterbürsten aus, die anschließend in einem nachfolgenden Schritt mit redox-funktionalen Gruppen modifiziert werden können. Diese Vorgehensweise ist besonders vielversprechend und erlaubt es unterschiedliche funktionelle Gruppen an den Aktivesterbürsten zu verankern. Damit können durch Verwendung von vernetzenden Gruppen neben den Redoxeigenschaften, die mechanische Stabilität solcher Polymerfilme optimiert werden. rn rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In der Erdöl– und Gasindustrie sind bildgebende Verfahren und Simulationen auf der Porenskala im Begriff Routineanwendungen zu werden. Ihr weiteres Potential lässt sich im Umweltbereich anwenden, wie z.B. für den Transport und Verbleib von Schadstoffen im Untergrund, die Speicherung von Kohlendioxid und dem natürlichen Abbau von Schadstoffen in Böden. Mit der Röntgen-Computertomografie (XCT) steht ein zerstörungsfreies 3D bildgebendes Verfahren zur Verfügung, das auch häufig für die Untersuchung der internen Struktur geologischer Proben herangezogen wird. Das erste Ziel dieser Dissertation war die Implementierung einer Bildverarbeitungstechnik, die die Strahlenaufhärtung der Röntgen-Computertomografie beseitigt und den Segmentierungsprozess dessen Daten vereinfacht. Das zweite Ziel dieser Arbeit untersuchte die kombinierten Effekte von Porenraumcharakteristika, Porentortuosität, sowie die Strömungssimulation und Transportmodellierung in Porenräumen mit der Gitter-Boltzmann-Methode. In einer zylindrischen geologischen Probe war die Position jeder Phase auf Grundlage der Beobachtung durch das Vorhandensein der Strahlenaufhärtung in den rekonstruierten Bildern, das eine radiale Funktion vom Probenrand zum Zentrum darstellt, extrahierbar und die unterschiedlichen Phasen ließen sich automatisch segmentieren. Weiterhin wurden Strahlungsaufhärtungeffekte von beliebig geformten Objekten durch einen Oberflächenanpassungsalgorithmus korrigiert. Die Methode der „least square support vector machine” (LSSVM) ist durch einen modularen Aufbau charakterisiert und ist sehr gut für die Erkennung und Klassifizierung von Mustern geeignet. Aus diesem Grund wurde die Methode der LSSVM als pixelbasierte Klassifikationsmethode implementiert. Dieser Algorithmus ist in der Lage komplexe geologische Proben korrekt zu klassifizieren, benötigt für den Fall aber längere Rechenzeiten, so dass mehrdimensionale Trainingsdatensätze verwendet werden müssen. Die Dynamik von den unmischbaren Phasen Luft und Wasser wird durch eine Kombination von Porenmorphologie und Gitter Boltzmann Methode für Drainage und Imbibition Prozessen in 3D Datensätzen von Böden, die durch synchrotron-basierte XCT gewonnen wurden, untersucht. Obwohl die Porenmorphologie eine einfache Methode ist Kugeln in den verfügbaren Porenraum einzupassen, kann sie dennoch die komplexe kapillare Hysterese als eine Funktion der Wassersättigung erklären. Eine Hysterese ist für den Kapillardruck und die hydraulische Leitfähigkeit beobachtet worden, welche durch die hauptsächlich verbundenen Porennetzwerke und der verfügbaren Porenraumgrößenverteilung verursacht sind. Die hydraulische Konduktivität ist eine Funktion des Wassersättigungslevels und wird mit einer makroskopischen Berechnung empirischer Modelle verglichen. Die Daten stimmen vor allem für hohe Wassersättigungen gut überein. Um die Gegenwart von Krankheitserregern im Grundwasser und Abwässern vorhersagen zu können, wurde in einem Bodenaggregat der Einfluss von Korngröße, Porengeometrie und Fluidflussgeschwindigkeit z.B. mit dem Mikroorganismus Escherichia coli studiert. Die asymmetrischen und langschweifigen Durchbruchskurven, besonders bei höheren Wassersättigungen, wurden durch dispersiven Transport aufgrund des verbundenen Porennetzwerks und durch die Heterogenität des Strömungsfeldes verursacht. Es wurde beobachtet, dass die biokolloidale Verweilzeit eine Funktion des Druckgradienten als auch der Kolloidgröße ist. Unsere Modellierungsergebnisse stimmen sehr gut mit den bereits veröffentlichten Daten überein.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zusammenfassung Mittels Fluoreszenzfarbstoffen können Strukturen sichtbar gemacht werden, die auf kon-ventionellem Weg nicht, oder nur schwer darzustellen sind. Besonders in Kombination mit der Konfokalen Laser Scanning Mikroskopie eröffnen sich neue Wege zum spezifischen Nachweis unterschiedlichster Komponenten biologischer Proben und gegebenenfalls deren dreidimensionale Widergabe.Die Visualisierung des Proteinanteils des Zahnhartgewebes kann mit Hilfe chemisch kopplungsfähiger Fluorochrome durchgeführt werden. Um zu zeigen, daß es sich bei dieser Markierung nicht um unspezifische Adsorption des Farbstoffes handelt, wurde zur Kontrolle die Proteinkomponente der Zahnproben durch enzymatischen Verdau beseitigt. Derartig behandelte Präparate wiesen eine sehr geringe Anfärbbarkeit auf.Weiterführend diente diese enzymatische Methode als Negativkontrolle zum Nachweis der Odontoblastenfortsätze im Dentin bzw. im Bereich der Schmelz-Dentin-Grenze. Hiermit konnte differenziert werden zwischen reinen Reflexionsbildern der Dentinkanäle und den Zellausläufern deren Membranen gezielt durch lipophile Fluoreszenzfarbstoffe markiert wurden.In einem weiteren Ansatz konnte gezeigt werden, daß reduzierte und daher nichtfluoreszente Fluoresceinabkömmlinge geeignet sind, die Penetration von Oxidationsmitteln (hier H2O2) in den Zahn nachzuweisen. Durch Oxidation dieser Verbindungen werden fluoreszierende Produkte generiert, die den Nachweis lieferten, daß die als Zahnbleichmittel eingesetzten Mittel rasch durch Schmelz und Dentin bis in die Pulpahöhle gelangen können.Die Abhängigkeit der Fluoreszenz bestimmter Fluorochrome von deren chemischer Um-gebung, im vorliegenden Fall dem pH-Wert, sollte eingesetzt werden, um den Säuregrad im Zahninneren fluoreszenzmikroskopisch darzustellen. Hierbei wurde versucht, ein ratio-metrisches Verfahren zu entwickeln, mit dem die pH-Bestimmung unter Verwendung eines pH-abhängigen und eines pH-unabhängigen Fluorochroms erfolgt. Diese Methode konnte nicht für diese spezielle Anwendung verifiziert werden, da Neutralisationseffekte der mineralischen Zahnsubstanz (Hydroxylapatit) die pH-Verteilung innerhalb der Probe beeinflußen. Fluoreszenztechniken wurden ebenfalls ergänzend eingesetzt zur Charakterisierung von kovalent modifizierten Implantatoberflächen. Die, durch Silanisierung von Titantestkörpern mit Triethoxyaminopropylsilan eingeführten freien Aminogruppen konnten qualitativ durch den Einsatz eines aminspezifischen Farbstoffes identifiziert werden. Diese Art der Funktionalisierung dient dem Zweck, Implantatoberflächen durch chemische Kopplung adhäsionsvermittelnder Proteine bzw. Peptide dem Einheilungsprozeß von Implantaten in den Knochen zugänglicher zu machen, indem knochenbildende Zellen zu verbessertem Anwachsverhalten stimuliert werden. Die Zellzahlbestimmung im Adhäsionstest wurde ebenfalls mittels Fluoreszenzfarbstoffen durchgeführt und lieferte Ergebnisse, die belegen, daß die durchgeführte Modifizierung einen günstigen Einfluß auf die Zelladhäsion besitzt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Im Jahre 2002 wurde mit dem NA48/1-Detektor eine Datennahme mit hoher Intensität von K_S-Mesonen und neutralen Hyperonen durchgeführt, bei der unter anderem etwa 10^9 Xi^0-Zerfallskandidaten aufgezeichnet wurden. Im Rahmen dieser Arbeit wurden aus diesem Datensatz 6657 Xi^0 -> Sigma^+ e^- Anti-nü und 581 Anti-Xi^0 -> Anti-Sigma^+ e^+ nü-Ereignisse ausgewählt und damit die Verzweigungsverhältnisse BR1(Gamma(Xi^0 -> Sigma^+ e^- Anti-nü)/Gamma(Xi^0 total))=( 2.533 +-0.032(stat) -0.076+0.089(syst) )10^-4 und BR2(Gamma(Anti-Xi^0 -> Anti-Sigma^+ e^+ nü)/Gamma(Anti-Xi^0 total))= ( 2.57 +-0.12(stat) -0.09+0.10(syst) )10^-4 bestimmt. Dieses Ergebnis für BR1 ist etwa 3.5-mal genauer als die bisher veröffentlichte Messung. Die Analyse der Anti-Xi^0-Beta-Zerfälle stellt die erste Messung von BR2 dar. Beide Ergebnisse stimmen mit der theoretischen Vorhersage von 2.6*10^-4 überein. Aus dem Xi^0-Beta-Verzweigungsverhältnis folgt unter Verwendung des experimentellen Wertes des Formfaktorverhältnisses g1/f1 für das CKM-Matrixelement |Vus| = 0.209 +- 0.004(exp) +- 0.026(syst), wobei die dominierende Unsicherheit von g1/f1 herrührt. Außerdem wurden in dieser Arbeit 99 Xi^0 -> Sigma^+ mu^- Anti-nü Zerfallskandidaten mit einem abgeschätzten Untergrund von 30 Ereignissen rekonstruiert und daraus ebenfalls das Verzweigungsverhältnis extrahiert: BR3(Gamma(Xi^0 -> Sigma^+ mu^- Anti-nü)/Gamma(Xi^0 total)) = ( 2.11 +- 0.31(stat) +- 0.15(syst) )10^-6.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zu den Hauptcharakteristika von Teilchen gehoert - neben der Masse - die Lebensdauer. Die mittlere Lebensdauer des Xi0-Hyperons, die sich aus der mittleren Lebensdauer des Xi--Hyperons ueber die Delta I=1/2-Regel theoretisch voraussagen laesst, wurde bereits mehrfach experimentell bestimmt. Die neueste Messung aus dem Jahr 1977 besitzt jedoch eine relative Unsicherheit von 5%, was sich mit Daten neuerer Experimente deutlich verbessern laesst. Die mittlere Lebensdauer ist ein wichtiger Parameter bei der Bestimmung des Matrixelements Vus der Cabibbo-Kobayashi-Maskawa-Matrix in semileptonischen Xi0-Zerfaellen. Im Jahre 2002 wurde mit dem NA48-Detektor eine Datennahme mit hoher Intensitaet durchgefuehrt, bei der unter anderem etwa 10^9 Xi0-Zerfallskandidaten aufgezeichnet wurden. Davon wurden im Rahmen dieser Arbeit 192000 Ereignisse des Typs "Xi0 nach Lambda pi0" rekonstruiert und 107000 Ereignisse zur Bestimmung der mittleren Lebensdauer durch Vergleich mit simulierten Ereignissen verwendet. Zur Vermeidung von systematischen Fehlern wurde die Lebensdauer in zehn Energieintervallen durch Vergleich von gemessenen und simulierten Daten ermittelt. Das Ergebnis ist wesentlich genauer als bisherige Messungen und weicht vom Literaturwert (tau=(2,90+-0,09)*10^(-10)s) um (+4,99+-0,50(stat)+-0,58(syst))% ab, was 1,7 Standardabweichungen entspricht. Die Lebensdauer ergibt sich zu tau=(3,045+-0,015(stat)+-0,017(syst))*10^(-10)s. Auf die gleiche Weise konnte mit den zur Verfuegung stehenden Daten erstmals die Lebensdauer des Anti-Xi0-Hyperons gemessen werden. Das Ergebnis dieser Messung ist tau=(3,042+-0,045(stat)+-0,017(syst))*10^(-10)s.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The behaviour of a polymer depends strongly on the length- and time scale as well as on the temperature rnat which it is probed. In this work, I describe investigations of polymer surfaces using scanning probe rnmicroscopy with heatable probes. With these probes, surfaces can be heated within seconds down to rnmicroseconds. I introduce experiments for the local and fast determination of glass transition and melting rntemperatures. I developed a method which allows the determination of glass transition and melting rntemperatures on films with thicknesses below 100 nm: A background measurement on the substrate was rnperformed. The resulting curve was subtracted from the measurement on the polymer film. The rndifferential measurement on polystyrene films with thicknesses between 35 nm and 160 nm showed rncharacteristic signals at 95 ± 1 °C, in accordance with the glass transition of polystyrene. Pressing heated rnprobes into polymer films causes plastic deformation. Nanometer sized deformations are currently rninvestigated in novel concepts for high density data storage. A suitable medium for such a storage system rnhas to be easily indentable on one hand, but on the other hand it also has to be very stable towards rnsurface induced wear. For developing such a medium I investigated a new approach: A comparably soft rnmaterial, namely polystyrene, was protected with a thin but very hard layer made of plasma polymerized rnnorbornene. The resulting bilayered media were tested for surface stability and deformability. I showed rnthat the bilayered material combines the deformability of polystyrene with the surface stability of the rnplasma polymer, and that the material therefore is a very good storage medium. In addition we rninvestigated the glass transition temperature of polystyrene at timescales of 10 µs and found it to be rnapprox. 220 °C. The increase of this characteristic temperature of the polymer results from the short time rnat which the polymer was probed and reflects the well-known time-temperature superposition principle. rnHeatable probes were also used for the characterization of silverazide filled nanocapsules. The use of rnheatable probes allowed determining the decomposition temperature of the capsules from few rnnanograms of material. The measured decomposition temperatures ranged from 180 °C to 225 °C, in rnaccordance with literature values. The investigation of small amounts of sample was necessary due to the rnlimited availability of the material. Furthermore, investigating larger amounts of the capsules using rnconventional thermal gravimetric analysis could lead to contamination or even damage of the instrument. rnBesides the analysis of material parameters I used the heatable probes for the local thermal rndecomposition of pentacene precursor material in order to form nanoscale conductive structures. Here, rnthe thickness of the precursor layer was important for complete thermal decomposition. rnAnother aspect of my work was the investigation of redox active polymers - Poly-10-(4-vinylbenzyl)-10H-rnphenothiazine (PVBPT)- for data storage. Data is stored by changing the local conductivity of the material rnby applying a voltage between tip and surface. The generated structures were stable for more than 16 h. It rnwas shown that the presence of water is essential for succesfull patterning.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

One of the most important challenges in chemistry and material science is the connection between the contents of a compound and its chemical and physical properties. In solids, these are greatly influenced by the crystal structure.rnrnThe prediction of hitherto unknown crystal structures with regard to external conditions like pressure and temperature is therefore one of the most important goals to achieve in theoretical chemistry. The stable structure of a compound is the global minimum of the potential energy surface, which is the high dimensional representation of the enthalpy of the investigated system with respect to its structural parameters. The fact that the complexity of the problem grows exponentially with the system size is the reason why it can only be solved via heuristic strategies.rnrnImprovements to the artificial bee colony method, where the local exploration of the potential energy surface is done by a high number of independent walkers, are developed and implemented. This results in an improved communication scheme between these walkers. This directs the search towards the most promising areas of the potential energy surface.rnrnThe minima hopping method uses short molecular dynamics simulations at elevated temperatures to direct the structure search from one local minimum of the potential energy surface to the next. A modification, where the local information around each minimum is extracted and used in an optimization of the search direction, is developed and implemented. Our method uses this local information to increase the probability of finding new, lower local minima. This leads to an enhanced performance in the global optimization algorithm.rnrnHydrogen is a highly relevant system, due to the possibility of finding a metallic phase and even superconductor with a high critical temperature. An application of a structure prediction method on SiH12 finds stable crystal structures in this material. Additionally, it becomes metallic at relatively low pressures.

Relevância:

50.00% 50.00%

Publicador:

Resumo:

Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.

Relevância:

40.00% 40.00%

Publicador:

Resumo:

The atmosphere is a global influence on the movement of heat and humidity between the continents, and thus significantly affects climate variability. Information about atmospheric circulation are of major importance for the understanding of different climatic conditions. Dust deposits from maar lakes and dry maars from the Eifel Volcanic Field (Germany) are therefore used as proxy data for the reconstruction of past aeolian dynamics.rnrnIn this thesis past two sediment cores from the Eifel region are examined: the core SM3 from Lake Schalkenmehren and the core DE3 from the Dehner dry maar. Both cores contain the tephra of the Laacher See eruption, which is dated to 12,900 before present. Taken together the cores cover the last 60,000 years: SM3 the Holocene and DE3 the marine isotope stages MIS-3 and MIS-2, respectively. The frequencies of glacial dust storm events and their paleo wind direction are detected by high resolution grain size and provenance analysis of the lake sediments. Therefore two different methods are applied: geochemical measurements of the sediment using µXRF-scanning and the particle analysis method RADIUS (rapid particle analysis of digital images by ultra-high-resolution scanning of thin sections).rnIt is shown that single dust layers in the lake sediment are characterized by an increased content of aeolian transported carbonate particles. The limestone-bearing Eifel-North-South zone is the most likely source for the carbonate rich aeolian dust in the lake sediments of the Dehner dry maar. The dry maar is located on the western side of the Eifel-North-South zone. Thus, carbonate rich aeolian sediment is most likely to be transported towards the Dehner dry maar within easterly winds. A methodology is developed which limits the detection to the aeolian transported carbonate particles in the sediment, the RADIUS-carbonate module.rnrnIn summary, during the marine isotope stage MIS-3 the storm frequency and the east wind frequency are both increased in comparison to MIS-2. These results leads to the suggestion that atmospheric circulation was affected by more turbulent conditions during MIS-3 in comparison to the more stable atmospheric circulation during the full glacial conditions of MIS-2.rnThe results of the investigations of the dust records are finally evaluated in relation a study of atmospheric general circulation models for a comprehensive interpretation. Here, AGCM experiments (ECHAM3 and ECHAM4) with different prescribed SST patterns are used to develop a synoptic interpretation of long-persisting east wind conditions and of east wind storm events, which are suggested to lead to an enhanced accumulation of sediment being transported by easterly winds to the proxy site of the Dehner dry maar.rnrnThe basic observations made on the proxy record are also illustrated in the 10 m-wind vectors in the different model experiments under glacial conditions with different prescribed sea surface temperature patterns. Furthermore, the analysis of long-persisting east wind conditions in the AGCM data shows a stronger seasonality under glacial conditions: all the different experiments are characterized by an increase of the relative importance of the LEWIC during spring and summer. The different glacial experiments consistently show a shift from a long-lasting high over the Baltic Sea towards the NW, directly above the Scandinavian Ice Sheet, together with contemporary enhanced westerly circulation over the North Atlantic.rnrnThis thesis is a comprehensive analysis of atmospheric circulation patterns during the last glacial period. It has been possible to reconstruct important elements of the glacial paleo climate in Central Europe. While the proxy data from sediment cores lead to a binary signal of the wind direction changes (east versus west wind), a synoptic interpretation using atmospheric circulation models is successful. This shows a possible distribution of high and low pressure areas and thus the direction and strength of wind fields which have the capacity to transport dust. In conclusion, the combination of numerical models, to enhance understanding of processes in the climate system, with proxy data from the environmental record is the key to a comprehensive approach to paleo climatic reconstruction.rn