10 resultados para Automatische Kommissionierung

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit wird eine Methode entwickelt, die Rossbywellenzüge automatisch identifiziert und und deren Eigenschaften quantifiziert. Mit dieser Methode wird der Wellenzug als eine Einheit in Raum und Zeit interpretiert. Einheit im Raum heißt, dass nicht die einzelnen Tröge und Rücken eines Wellenzugs betrachtet werden, sondern deren Einhüllende. Einheit in der Zeit bedeutet, dass der Wellenzug nicht nur zu einem Zeitpunkt betrachtet wird, sondern über seine gesamte Lebensdauer hinweg. Um den Wellenzug als räumliche und zeitliche Einheit zu erhalten, werden die Einhüllenden der Wellenzüge in Längengrad-Zeit Diagrammen, sogenannten Hovmöllerdiagrammen, betrachtet. Dort werden zusammenhängende Regionen als Objekte, die jeweils einen Wellenzug repräsentieren, identifiziert. Deren Eigenschaften werden dann automatisch berechnet. Diese Eigenschaften können nun direkt dem zugrunde liegenden Rossbywellenzug zugeordnet werden.rnDie neue Methode wird in zwei verschiedenen Szenarien angewendet: erstens zur Beurteilung der Vorhersagequalität eines einzelnen Rossbywellenzugs und zweitens für die klimatologische Betrachtung von Rossbywellenzügen im ERA-40 Reanalysedatensatz. Sie wurde weiterhin mit bisher verwendeten Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen verglichen.rnDie Untersuchung der Vorhersagequalität ergab, dass in dem betrachteten Fall die Übereinstimmung der Vorhersage mit der Analyse des Wellenzugs gering war, sofern das Modell initialisiert wurde, bevor der Rossbywellenzug eingesetzt hatte. Im Gegensatz dazu nahm die Vorhersagequalität deutlich zu, wenn der Wellenzug bereits in den Vorhersagedaten enthalten war. Dies deutet darauf hin, dass es in dem vorliegenden Fall problematisch ist, mit dem Modell den Auslösemechanismus korrekt voherzusagen. Für die weitere Untersuchung der Vorhersagequalität wurde eine spezielle Art der Darstellung der Daten verwendet, mit deren Hilfe deutlich wurde, dass das verwendete Modell in der Lage ist, diesen Wellenzug ungefähr sechs Tage im Voraus vorherzusagen. Diese Zeitspanne ist deutlich kürzer als die Lebensdauer des Wellenzugs, die etwa 10 Tage beträgt.rnIm Rahmen der klimatologischen Studie ergab sich eine positive Korrelation zwischen der Lebensdauer eines Rossbywellenzugs und des Bereichs den dieser Wellenzug während seiner gesamten Existenz in zonaler Richtung überstreicht. Für Wellenzüge mit einer kurzen Lebensdauer ergab sich eine ebenfalls positive Korrelation zwischen der mittleren Amplitude und der Dauer des Wellenzugs. Für eine längere Lebensdauer geht diese Korrelation aber in eine Sättigung über und die mittlere Amplitude steigt nicht mehr weiter an. Als eine mögliche Erklärung für dieses Verhalten wird angeführt, dass eine gewisse Stärke der Amplitude benötigt wird um stromabwärtige Entwicklung zu erhalten aber zu große Amplituden im Allgemeinen zum Brechen der Welle führen. Das Brechen leitet den letzten Abschnitt im Lebenszyklus eines Rossbywellenzuges ein, welcher im Anschluss meist zerfällt. Ein weiteres Ergebnis der klimatologischen Untersuchung ist das Auffinden bevorzugter Regionen der Entstehung und des Abklingens von Rossbywellenzügen. Diese Regionen unterscheiden sich erheblich für Rossbywellenzüge unterschiedlicher minimaler Lebensdauer. Langlebige Rossbywellenzüge entstehen demnach hauptsächlich über Ostasien und dem Westpazifik und vergehen dann über Europa.rnSchließlich wurde die entwickelte Methode in einen systematischen Vergleich anderer Methoden zur Identifikation und Quantifizierung von Rossbywellenzügen eingereiht. Die betrachteten Methoden beinhalten verschiedene Trog-und-Rücken Hovmöllerdiagramme des Meridionalwindes, Methoden die Rossbywellenzüge als eine Einheit identifizieren und Methoden die den Beitrag verschiedener physikalischer Aspekte zu der Entwicklung von Rossbywellenenzügen quantifizieren. Der Vergleich macht deutlich, dass jede Methode ihre individuellen Stärken und Schwächen hat. Dies bedeutet insbesondere, dass die Eignung der Methode von dem Stadium des Lebenszyklus, in dem sich der Rossbywellenzug befindet und dem Fokus, den man bei der Betrachtung hat, abhängt. Ideal ist eine Kombination mehrerer Methoden, da dies ein vollständigeres Bild eines Rossbywellenzuges ergibt als einzelne Methoden es zu liefern vermögen. Obwohl alle Methoden für die Anwendungen, für die sie jeweils konzipiert wurden, geeignet sind, ergeben sich bei der Diagnose der Rossbywellenzüge beträchtliche Unterschiede. Letztendlich stellt sich heraus, dass sogar die Defintion eines Rossbywellenzugs bis zu einem gewissen Grad von der zu seiner Identifizierung verwendeten Methode abhängt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird eine neue Methode zur Berechnung derLebensdauern von Ortho-Positronium in Polymerenbeschrieben. Zur Auswertung vonPositronium-Annihilations-Experimenten wurde bislang eineinfaches Modell verwendet, dessen Gültigkeit im Falle vonPolymeren fragwürdig ist. Durch ein verbessertes Modell wirdeine realistischere Beschreibung der Lebensdauernmöglich. Mit verschiedenen quantenmechanischen Methoden wirdeine Näherung für das Wechselwirkungspotential desPositroniums mit der Polymermatrix bestimmt. DieElektronendichte im Polymer wird mit quantenchemischenRechnungen ermittelt, während die Polymerstruktur selbst mitMolekulardynamik-Simulationen auf atomistis cher Ebeneberechnet wird. Die Pfad-integral-Monte-Carlo-Methodegestattet es dann, die Aufenthaltswahrscheinlichkeit unddaraus die Lebensdauer von Ortho-Positronium in den zumfreien Volumen gehörenden Löchern im Polymer zuberechnen. Diese werden mit Ergebnissen ausPositroniu-Annihilations-Experimenten verglichen. Wenn sieübereinstimmen, läßt sich schließen, daß diezugrundeliegenden simulierten Polymerkonfigurationen inBezug auf das freie Volumen ein realistisches Abbild desrealen Polymers sind. Da die Positionen der Atome in der Simulation bekannt sind,wird das freie Volumen mit der Gittermethode bestimmt undmit einem Clusteralgorithmus zu Löchern zusammengefaßt, diedann geometrisch analysiert werden. So können Informationenüber Gestalt, Größe und Verteilung der Löcher gewonnenwerden, die weit über das bislang verwendete Standardmodellhinausgehen. Es zeigt sich, daß einige der Annahmen desStandardmodells nicht erfüllt sind. Die Möglichkeiten des neuen Verfahrens werden an Polystyrolund Bisphenol-A-Polycarbonat demonstriert. ExperimentelleLebensdauerspektren können gut reproduziert werden. Eswurden umfangreiche Analysen des freien Volumensdurchgeführt. Im Falle des Polystyrols wurde auch seineTemperaturabhängigkeit untersucht. Des weiteren werden Simulationen zur Diffusion vonKohlendioxid in Polystyrol bei verschiedenen Temperaturenund Drücken präsentiert. Die Berechnung vonDiffusionskoeffizienten in NpT-Simulationen wird diskutiert;es wird eine Methode dargestellt, die die Berechnung derVerschiebung der Teilchen in ungefalteten Koordinatenerlaubt, auch wenn die Größe der Simulationszellefluktuiert, weil eine automatische Druckkontrolle verwendetwird. Damit werden Diffusionskoeffizientenermittelt. Außerdem wird der Frage nachgegangen, welcheLöcher die Kohlendioxidmoleküle besetzen. Dies ist von derexperimentellen Seite interessant, weil häufig gasbeladenePolymere durch Positronium untersucht werden, um dieAnzahldichte der Löcher zu bestimmen; diese wird wiederumbenötigt, um aus dem mittleren Volumen eines Loches dasgesamte freie Volumen zu berechnen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Except the article forming the main content most HTML documents on the WWW contain additional contents such as navigation menus, design elements or commercial banners. In the context of several applications it is necessary to draw the distinction between main and additional content automatically. Content extraction and template detection are the two approaches to solve this task. This thesis gives an extensive overview of existing algorithms from both areas. It contributes an objective way to measure and evaluate the performance of content extraction algorithms under different aspects. These evaluation measures allow to draw the first objective comparison of existing extraction solutions. The newly introduced content code blurring algorithm overcomes several drawbacks of previous approaches and proves to be the best content extraction algorithm at the moment. An analysis of methods to cluster web documents according to their underlying templates is the third major contribution of this thesis. In combination with a localised crawling process this clustering analysis can be used to automatically create sets of training documents for template detection algorithms. As the whole process can be automated it allows to perform template detection on a single document, thereby combining the advantages of single and multi document algorithms.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DcuS is a membrane-integral sensory histidine kinase involved in the DcuSR two-component regulatory system in Escherichia coli by regulating the gene expression of C4-dicarboxylate metabolism in response to external stimuli. How DcuS mediates the signal transduction across the membrane remains little understood. This study focused on the oligomerization and protein-protein interactions of DcuS by using quantitative Fluorescence Resonance Energy Transfer (FRET) spectroscopy. A quantitative FRET analysis for fluorescence spectroscopy has been developed in this study, consisting of three steps: (1) flexible background subtraction to yield background-free spectra, (2) a FRET quantification method to determine FRET efficiency (E) and donor fraction (fD = [donor] / ([donor]+[acceptor])) from the spectra, and (3) a model to determine the degree of oligomerization (interaction stoichiometry) in the protein complexes based on E vs. fD. The accuracy and applicability of this analysis was validated by theoretical simulations and experimental systems. These three steps were integrated into a computer procedure as an automatic quantitative FRET analysis which is easy, fast, and allows high-throughout to quantify FRET accurately and robustly, even in living cells. This method was subsequently applied to investigate oligomerization and protein-protein interactions, in particular in living cells. Cyan (CFP) and yellow fluorescent protein (YFP), two spectral variants of green fluorescent protein, were used as a donor-acceptor pair for in vivo measurements. Based on CFP- and YFP-fusions of non-interacting membrane proteins in the cell membrane, a minor FRET signal (E = 0.06 ± 0.01) can be regarded as an estimate of direct interaction between CFP and YFP moieties of fusion proteins co-localized in the cell membrane (false-positive). To confirm if the FRET occurrence is specific to the interaction of the investigated proteins, their FRET efficiency should be clearly above E = 0.06. The oligomeric state of DcuS was examined both in vivo (CFP/YFP) and in vitro (two different donor-acceptor pairs of organic dyes) by three independent experimental systems. The consistent occurrence of FRET in vitro and in vivo provides the evidence for the homo-dimerization of DcuS as full-length protein for the first time. Moreover, novel interactions (hetero-complexes) between DcuS and its functionally related proteins, citrate-specific sensor kinase CitA and aerobic dicarboxylate transporter DctA respectively, have been identified for the first time by intermolecular FRET in vivo. This analysis can be widely applied as a robust method to determine the interaction stoichiometry of protein complexes for other proteins of interest labeled with adequate fluorophores in vitro or in vivo.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

“Plasmon” is a synonym for collective oscillations of the conduction electrons in a metal nanoparticle (excited by an incoming light wave), which cause strong optical responses like efficient light scattering. The scattering cross-section with respect to the light wavelength depends not only on material, size and shape of the nanoparticle, but also on the refractive index of the embedding medium. For this reason, plasmonic nanoparticles are interesting candidates for sensing applications. Here, two novel setups for rapid spectral investigations of single nanoparticles and different sensing experiments are presented.rnrnPrecisely, the novel setups are based on an optical microscope operated in darkfield modus. For the fast single particle spectroscopy (fastSPS) setup, the entrance pinhole of a coupled spectrometer is replaced by a liquid crystal device (LCD) acting as spatially addressable electronic shutter. This improvement allows the automatic and continuous investigation of several particles in parallel for the first time. The second novel setup (RotPOL) usesrna rotating wedge-shaped polarizer and encodes the full polarization information of each particle within one image, which reveals the symmetry of the particles and their plasmon modes. Both setups are used to observe nanoparticle growth in situ on a single-particle level to extract quantitative data on nanoparticle growth.rnrnUsing the fastSPS setup, I investigate the membrane coating of gold nanorods in aqueous solution and show unequivocally the subsequent detection of protein binding to the membrane. This binding process leads to a spectral shift of the particles resonance due to the higher refractive index of the protein compared to water. Hence, the nanosized addressable sensor platform allows for local analysis of protein interactions with biological membranes as a function of the lateral composition of phase separated membranes.rnrnThe sensitivity on changes in the environmental refractive index depends on the particles’ aspect ratio. On the basis of simulations and experiments, I could present the existence of an optimal aspect ratio range between 3 and 4 for gold nanorods for sensing applications. A further sensitivity increase can only be reached by chemical modifications of the gold nanorods. This can be achieved by synthesizing an additional porous gold cage around the nanorods, resulting in a plasmon sensitivity raise of up to 50 % for those “nanorattles” compared to gold nanorods with the same resonance wavelength. Another possibility isrnto coat the gold nanorods with a thin silver shell. This reduces the single particle’s resonance spectral linewidth about 30 %, which enlarges the resolution of the observable shift. rnrnThis silver coating evokes the interesting effect of reducing the ensemble plasmon linewidth by changing the relation connecting particle shape and plasmon resonance wavelength. This change, I term plasmonic focusing, leads to less variation of resonance wavelengths for the same particle size distribution, which I show experimentally and theoretically.rnrnIn a system of two coupled nanoparticles, the plasmon modes of the transversal and longitudinal axis depend on the refractive index of the environmental solution, but only the latter one is influenced by the interparticle distance. I show that monitoring both modes provides a self-calibrating system, where interparticle distance variations and changes of the environmental refractive index can be determined with high precision.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Einleitung: Die Besonderheiten in der Gesundheitsversorgung von gehörlosen Bürgerinnen und Bürgern in Deutschland sind weitgehend unbekannt. Schätzungsweise 41.500 bis zu 80.000 Menschen sind in Deutschland von Geburt an gehörlos oder früh ertaubt. Diese Gehörlosengemeinschaft verwendet vorrangig die Deutsche Gebärdensprache, die seit 2002 per Gesetzgebung als selbstständige Sprache in Deutschland amtlich anerkannt ist. Der Gesetzgeber hat vorgesehen, dass ein von der Krankenversicherung bezahlter Dolmetscher bei einem Arztbesuch bestellt werden kann. Erkenntnisse, inwieweit dies unter den Betroffenen bekannt ist und genutzt wird, liegen nicht vor. Ebenso sind Annahmen, dass gehörlose Patienten in einer vorrangig von Hörenden gestalteten Gesundheitsversorgung mutmaßlich auf Probleme, Barrieren und Vorurteile stoßen, in Deutschland nicht systematisch untersucht. Die vorliegende Arbeit gibt erstmalig anhand eines größeren Studienkollektivs einen sozialmedizinischen Einblick in den Gesundheitsversorgungszustand von Gehörlosen in Deutschland. Methodik: Im Rahmen einer Vorstudie wurden 2009 zunächst qualitative Experteninterviews geführt, um den Zustand der medizinischen Versorgung von Gehörlosen zu explorieren und Problemfelder zu identifizieren. Anschließend wurde für die Hauptstudie auf der Grundlage der Experteninterviews ein quantitativer Online-Fragebogen mit Gebärdensprachvideos entwickelt und erstmalig in der sozialmedizinischen Gehörlosenforschung eingesetzt. Die gehörlosen Teilnehmer wurden über etablierte Internetportale für Gehörlose und mit Hilfe von Gehörlosenverbänden und Selbsthilfegruppen sowie einer Pressemitteilung rekrutiert. Insgesamt wurden den Teilnehmern bis zu 85 Fragen zu sozioökonomischen Daten, Dolmetschernutzung, Arzt-Patienten-Beziehung und häufig auftretenden Problemen gestellt. Es wurden absolute und relative Häufigkeiten bestimmt und mittels Chi2-Test bzw. exaktem Fisher-Test auf geschlechtsspezifische Unterschiede geprüft. Alle Tests wurden zweiseitig mit der lokalen Irrtumswahrscheinlichkeit α = 0,05 durchgeführt. Ergebnisse: Am Ende der Feldphase verzeichnete die automatische Datenbank 1369 vollständig bearbeitete Fragebögen. 843 entsprachen den a-priori definierten Auswertungskriterien (volljährige Personen, gehörlos, keine fehlenden Angaben in wesentlichen Zielfragen). Häufigstes Ausschlusskriterium war ein anderer Hörstatus als Gehörlosigkeit. Etwa die Hälfte der 831 Teilnehmer (45,1% bzw. 52,8%) schätzte trotz ausreichender Schulbildung ihre Lese- bzw. Schreibkompetenz als mäßig bis schlecht ein. Zeitdruck und Kommunikationsprobleme belasteten bei 66,7% und 71,1% der Teilnehmer bereits einmal einen Arztbesuch. Von 56,6% der Teilnehmer wurde angegeben, dass Hilflosigkeits- und Abhängigkeitsgefühle beim Arztbesuch auftraten. Falsche Diagnosen auf Grund von Kommunikationsproblemen wurden von 43,3% der Teilnehmer vermutet. 17,7% der Teilnehmer gaben an, sich bereits einmal aktiv um psychotherapeutische Unterstützung bemüht zu haben. Gebärdensprachkompetente Ärzte wären optimal um die Kommunikation zu verbessern, aber auch Dolmetscher spielen eine große Rolle in der Kommunikation. 31,4% der gehörlosen Teilnehmer gaben jedoch an, nicht über die aktuellen Regelungen zur Kostenübernahme bei Dolmetschereinsätzen informiert zu sein. Dies betraf besonders jüngere, wenig gebildete und stark auf die eigene Familie hin orientierte Gehörlose. Wesentliche geschlechtsspezifische Unterschiede konnten nicht festgestellt werden. Diskussion: Geht man von etwa 80.000 Gehörlosen in Deutschland aus, konnten mit der Mainzer Gehörlosen-Studie etwa 1% aller Betroffenen erreicht werden, wobei Selektionsverzerrungen zu diskutieren sind. Es ist anzunehmen, dass Personen, die nicht mit dem Internet vertraut sind, selten bis gar nicht teilgenommen haben. Hier könnten Gehörlose mit hohem Alter sowie möglicherweise mit niedriger Schreib- und Lesekompetenz besonders betroffen sein. Eine Prüfung auf Repräsentativität war jedoch nicht möglich, da die Grundgesamtheit der Gehörlosen mit sozioökonomischen Eckdaten nicht bekannt ist. Die dargestellten Ergebnisse weisen erstmalig bei einem großen Studienkollektiv Problembereiche in der medizinischen Versorgung von Gehörlosen in Deutschland auf: Gehörlose Patienten laufen Gefahr, ihren Arztbesuch durch vielfältige Kommunikationsbarrieren und Missverständnisse als Zumutung zu erleben. Eine Informationskampagne unter Ärzten könnte helfen, diese Situation zu verbessern. Dolmetscher können die Kommunikation zwischen Arzt und Patient enorm verbessern, die gesetzlich geregelte Kostenübernahme funktioniert dabei in der Regel auch problemlos. Allerdings gibt es noch viele Gehörlose, die nicht über die Regelungen zur Dolmetscherunterstützung informiert sind und die Dienste entsprechend nicht nutzen können. Hier muss es weitere Bemühungen geben, die Gehörlosen aufzuklären, um ihnen eine barrierefreie Nutzung von gesundheitsbezogenen Leistungen zu ermöglichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis concerns artificially intelligent natural language processing systems that are capable of learning the properties of lexical items (properties like verbal valency or inflectional class membership) autonomously while they are fulfilling their tasks for which they have been deployed in the first place. Many of these tasks require a deep analysis of language input, which can be characterized as a mapping of utterances in a given input C to a set S of linguistically motivated structures with the help of linguistic information encoded in a grammar G and a lexicon L: G + L + C → S (1) The idea that underlies intelligent lexical acquisition systems is to modify this schematic formula in such a way that the system is able to exploit the information encoded in S to create a new, improved version of the lexicon: G + L + S → L' (2) Moreover, the thesis claims that a system can only be considered intelligent if it does not just make maximum usage of the learning opportunities in C, but if it is also able to revise falsely acquired lexical knowledge. So, one of the central elements in this work is the formulation of a couple of criteria for intelligent lexical acquisition systems subsumed under one paradigm: the Learn-Alpha design rule. The thesis describes the design and quality of a prototype for such a system, whose acquisition components have been developed from scratch and built on top of one of the state-of-the-art Head-driven Phrase Structure Grammar (HPSG) processing systems. The quality of this prototype is investigated in a series of experiments, in which the system is fed with extracts of a large English corpus. While the idea of using machine-readable language input to automatically acquire lexical knowledge is not new, we are not aware of a system that fulfills Learn-Alpha and is able to deal with large corpora. To instance four major challenges of constructing such a system, it should be mentioned that a) the high number of possible structural descriptions caused by highly underspeci ed lexical entries demands for a parser with a very effective ambiguity management system, b) the automatic construction of concise lexical entries out of a bulk of observed lexical facts requires a special technique of data alignment, c) the reliability of these entries depends on the system's decision on whether it has seen 'enough' input and d) general properties of language might render some lexical features indeterminable if the system tries to acquire them with a too high precision. The cornerstone of this dissertation is the motivation and development of a general theory of automatic lexical acquisition that is applicable to every language and independent of any particular theory of grammar or lexicon. This work is divided into five chapters. The introductory chapter first contrasts three different and mutually incompatible approaches to (artificial) lexical acquisition: cue-based queries, head-lexicalized probabilistic context free grammars and learning by unification. Then the postulation of the Learn-Alpha design rule is presented. The second chapter outlines the theory that underlies Learn-Alpha and exposes all the related notions and concepts required for a proper understanding of artificial lexical acquisition. Chapter 3 develops the prototyped acquisition method, called ANALYZE-LEARN-REDUCE, a framework which implements Learn-Alpha. The fourth chapter presents the design and results of a bootstrapping experiment conducted on this prototype: lexeme detection, learning of verbal valency, categorization into nominal count/mass classes, selection of prepositions and sentential complements, among others. The thesis concludes with a review of the conclusions and motivation for further improvements as well as proposals for future research on the automatic induction of lexical features.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Atmosphärische Aerosolpartikel wirken in vielerlei Hinsicht auf die Menschen und die Umwelt ein. Eine genaue Charakterisierung der Partikel hilft deren Wirken zu verstehen und dessen Folgen einzuschätzen. Partikel können hinsichtlich ihrer Größe, ihrer Form und ihrer chemischen Zusammensetzung charakterisiert werden. Mit der Laserablationsmassenspektrometrie ist es möglich die Größe und die chemische Zusammensetzung einzelner Aerosolpartikel zu bestimmen. Im Rahmen dieser Arbeit wurde das SPLAT (Single Particle Laser Ablation Time-of-flight mass spectrometer) zur besseren Analyse insbesondere von atmosphärischen Aerosolpartikeln weiterentwickelt. Der Aerosoleinlass wurde dahingehend optimiert, einen möglichst weiten Partikelgrößenbereich (80 nm - 3 µm) in das SPLAT zu transferieren und zu einem feinen Strahl zu bündeln. Eine neue Beschreibung für die Beziehung der Partikelgröße zu ihrer Geschwindigkeit im Vakuum wurde gefunden. Die Justage des Einlasses wurde mithilfe von Schrittmotoren automatisiert. Die optische Detektion der Partikel wurde so verbessert, dass Partikel mit einer Größe < 100 nm erfasst werden können. Aufbauend auf der optischen Detektion und der automatischen Verkippung des Einlasses wurde eine neue Methode zur Charakterisierung des Partikelstrahls entwickelt. Die Steuerelektronik des SPLAT wurde verbessert, so dass die maximale Analysefrequenz nur durch den Ablationslaser begrenzt wird, der höchsten mit etwa 10 Hz ablatieren kann. Durch eine Optimierung des Vakuumsystems wurde der Ionenverlust im Massenspektrometer um den Faktor 4 verringert.rnrnNeben den hardwareseitigen Weiterentwicklungen des SPLAT bestand ein Großteil dieser Arbeit in der Konzipierung und Implementierung einer Softwarelösung zur Analyse der mit dem SPLAT gewonnenen Rohdaten. CRISP (Concise Retrieval of Information from Single Particles) ist ein auf IGOR PRO (Wavemetrics, USA) aufbauendes Softwarepaket, das die effiziente Auswertung der Einzelpartikel Rohdaten erlaubt. CRISP enthält einen neu entwickelten Algorithmus zur automatischen Massenkalibration jedes einzelnen Massenspektrums, inklusive der Unterdrückung von Rauschen und von Problemen mit Signalen die ein intensives Tailing aufweisen. CRISP stellt Methoden zur automatischen Klassifizierung der Partikel zur Verfügung. Implementiert sind k-means, fuzzy-c-means und eine Form der hierarchischen Einteilung auf Basis eines minimal aufspannenden Baumes. CRISP bietet die Möglichkeit die Daten vorzubehandeln, damit die automatische Einteilung der Partikel schneller abläuft und die Ergebnisse eine höhere Qualität aufweisen. Daneben kann CRISP auf einfache Art und Weise Partikel anhand vorgebener Kriterien sortieren. Die CRISP zugrundeliegende Daten- und Infrastruktur wurde in Hinblick auf Wartung und Erweiterbarkeit erstellt. rnrnIm Rahmen der Arbeit wurde das SPLAT in mehreren Kampagnen erfolgreich eingesetzt und die Fähigkeiten von CRISP konnten anhand der gewonnen Datensätze gezeigt werden.rnrnDas SPLAT ist nun in der Lage effizient im Feldeinsatz zur Charakterisierung des atmosphärischen Aerosols betrieben zu werden, während CRISP eine schnelle und gezielte Auswertung der Daten ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Structure characterization of nanocrystalline intermediates and metastable phases is of primary importance for a deep understanding of synthetic processes undergoing solid-to-solid state phase transitions. Understanding the evolution from the first nucleation stage to the final synthetic product supports not only the optimization of existing processes, but might assist in tailoring new synthetic paths. A systematic investigation of intermediates and metastable phases is hampered because it is impossible to produce large crystals and only in few cases a pure synthetic product can be obtained. Structure investigation by X-ray powder diffraction methods is still challenging on nanoscale, especially when the sample is polyphasic. Electron diffraction has the advantage to collect data from single nanoscopic crystals, but is limited by data incompleteness, dynamical effects and fast deterioration of the sample under the electron beam. Automated diffraction tomography (ADT), a recently developed technique, making possible to collect more complete three-dimensional electron diffraction data and to reduce at the same time dynamical scattering and beam damage, thus allowing to investigate even beam sensitive materials (f.e. hydrated phases and organics). At present, ADT is the only technique able to deliver complete three-dimensional structural information from single nanoscopic grains, independently from other surrounding phases. Thus, ADT is an ideal technique for the study of on-going processes where different phases exist at the same time and undergo several structural transitions. In this study ADT was used as the main technique for structural characterization for three different systems and combined subsequently with other techniques, among which high-resolution transmission electron microscopy (HRTEM), cryo-TEM imaging, X-ray powder diffraction (XRPD) and energy disperse X-ray spectroscopy (EDX).rnAs possible laser host materials, i.e. materials with a broad band emission in the near-infrared region, two unknown phases were investigated in the ternary oxide system M2O-Al2O3-WO3 (M = K, Na). Both phases exhibit low purity as well as non-homogeneous size distribution and particle morphology. The structures solved by ADT are also affected by pseudo-symmetry. rnSodium titanate nanotubes and nanowires are both intermediate products in the synthesis of TiO2 nanorods which are used as additives to colloidal TiO2 film for improving efficiency of dye-sensitized solar cells (DSSC). The structural transition from nantubes to nanowires was investigated in a step by step time-resolved study. Nanowires were discovered to consist of a hitherto unknown phase of sodium titanate. This new phase, typically affected by pervasive defects like mutual layer shift, was structurally determined ab-initio on the basis of ADT data. rnThe third system is related with calcium carbonate nucleation and early crystallization. The first part of this study is dedicated to the extensive investigations of calcium carbonate formation in a step by step analysis, up to the appearance of crystalline individua. The second part is dedicated to the structure determination by ADT of the first-to-form anhydrated phase of CaCO3: vaterite. An exhaustive structure analysis of vaterite had previously been hampered by diffuse scattering, extra periodicities and fast deterioration of the material under electron irradiation. rn