994 resultados para Medizinische Informatik


Relevância:

10.00% 10.00%

Publicador:

Resumo:

The Standard Model of particle physics was developed to describe the fundamental particles, which form matter, and their interactions via the strong, electromagnetic and weak force. Although most measurements are described with high accuracy, some observations indicate that the Standard Model is incomplete. Numerous extensions were developed to solve these limitations. Several of these extensions predict heavy resonances, so-called Z' bosons, that can decay into an electron positron pair. The particle accelerator Large Hadron Collider (LHC) at CERN in Switzerland was built to collide protons at unprecedented center-of-mass energies, namely 7 TeV in 2011. With the data set recorded in 2011 by the ATLAS detector, a large multi-purpose detector located at the LHC, the electron positron pair mass spectrum was measured up to high masses in the TeV range. The properties of electrons and the probability that other particles are mis-identified as electrons were studied in detail. Using the obtained information, a sophisticated Standard Model expectation was derived with data-driven methods and Monte Carlo simulations. In the comparison of the measurement with the expectation, no significant deviations from the Standard Model expectations were observed. Therefore exclusion limits for several Standard Model extensions were calculated. For example, Sequential Standard Model (SSM) Z' bosons with masses below 2.10 TeV were excluded with 95% Confidence Level (C.L.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The biosphere emits copiously volatile organic compounds (VOCs) into the atmosphere, which are removed again depending on the oxidative capacity of the atmosphere and physical processes such as mixing, transport and deposition. Biogenic VOCs react with the primary oxidant of the atmosphere, the hydroxyl radical (OH), and potentially lead to the formation tropospheric ozone and aerosol, which impact regional climate and air quality. The rate of OH decay in the atmosphere, the total OH reactivity is a function of the atmospheric, reactive compound's concentration and reaction velocity with OH. One way to measure the total OH reactivity, the total OH sink, is with the Comparative Reactivity Method - CRM. Basically, the reaction of OH with a reagent (here pyrrole) in clean air and in the presence of atmospheric, reactive molecules is compared. This thesis presents measurements of the total OH reactivity at the biosphere-atmosphere interface to analyze various influences and driving forces. For measurements in natural environment the instrument was automated and a direct, undisturbed sampling method developed. Additionally, an alternative detection system was tested and compared to the originally used detector (Proton Transfer Reaction-Mass Spectrometer, PTR-MS). The GC-PID (Gas Chromatographic Photo-Ionization Detector) was found as a smaller, less expensive, and robust alternative for total OH reactivity measurements. The HUMPPA-COPEC 2010 measurement campaign in the Finish forest was impacted by normal boreal forest emissions as well as prolonged heat and biomass burning emissions. The measurement of total OH reactivity was compared with a comprehensive set of monitored individual species ambient concentration levels. A significant discrepancy between those individually measured OH sinks and the total OH reactivity was observed, which was characterized in detail by the comparison of within and above the forest canopy detected OH reactivity. Direct impact of biogenic emissions on total OH reactivity was examined on Kleiner Feldberg, Germany, 2011. Trans-seasonal measurements of an enclosed Norway spruce branch were conducted via PTR-MS, for individual compound's emission rates, and CRM, for total OH reactivity emission fluxes. Especially during summertime, the individually monitored OH sink terms could not account for the measured total OH reactivity. A controlled oxidation experiment in a low NOx environment was conducted in the EUPHORE reaction chamber (CHEERS, Spain 2011). The concentration levels of the reactant isoprene and its major products were monitored and compared to total OH reactivity measurements as well as to the results of two models. The individually measured compounds could account for the total OH reactivity during this experiment as well as the traditional model-degradation scheme for isoprene (MCM 3.2). Due to previous observations of high OH levels in the isoprene-rich environment of the tropics, a novel isoprene mechanism was recently suggested. In this mechanism (MIME v4) additional OH is generated during isoprene oxidation, which could not be verified in the conditions of the CHEERS experiment.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Bereichen der industriellen Fertigung, wie zum Beispiel in der Automobilindustrie, wer- den digitale Versuchsmodelle (sog. digital mock-ups) eingesetzt, um die Entwicklung komplexer Maschinen m ̈oglichst gut durch Computersysteme unterstu ̈tzen zu k ̈onnen. Hierbei spielen Be- wegungsplanungsalgorithmen eine wichtige Rolle, um zu gew ̈ahrleisten, dass diese digitalen Pro- totypen auch kollisionsfrei zusammengesetzt werden k ̈onnen. In den letzten Jahrzehnten haben sich hier sampling-basierte Verfahren besonders bew ̈ahrt. Diese erzeugen eine große Anzahl von zuf ̈alligen Lagen fu ̈r das ein-/auszubauende Objekt und verwenden einen Kollisionserken- nungsmechanismus, um die einzelnen Lagen auf Gu ̈ltigkeit zu u ̈berpru ̈fen. Daher spielt die Kollisionserkennung eine wesentliche Rolle beim Design effizienter Bewegungsplanungsalgorith- men. Eine Schwierigkeit fu ̈r diese Klasse von Planern stellen sogenannte “narrow passages” dar, schmale Passagen also, die immer dort auftreten, wo die Bewegungsfreiheit der zu planenden Objekte stark eingeschr ̈ankt ist. An solchen Stellen kann es schwierig sein, eine ausreichende Anzahl von kollisionsfreien Samples zu finden. Es ist dann m ̈oglicherweise n ̈otig, ausgeklu ̈geltere Techniken einzusetzen, um eine gute Performance der Algorithmen zu erreichen.rnDie vorliegende Arbeit gliedert sich in zwei Teile: Im ersten Teil untersuchen wir parallele Kollisionserkennungsalgorithmen. Da wir auf eine Anwendung bei sampling-basierten Bewe- gungsplanern abzielen, w ̈ahlen wir hier eine Problemstellung, bei der wir stets die selben zwei Objekte, aber in einer großen Anzahl von unterschiedlichen Lagen auf Kollision testen. Wir im- plementieren und vergleichen verschiedene Verfahren, die auf Hu ̈llk ̈operhierarchien (BVHs) und hierarchische Grids als Beschleunigungsstrukturen zuru ̈ckgreifen. Alle beschriebenen Verfahren wurden auf mehreren CPU-Kernen parallelisiert. Daru ̈ber hinaus vergleichen wir verschiedene CUDA Kernels zur Durchfu ̈hrung BVH-basierter Kollisionstests auf der GPU. Neben einer un- terschiedlichen Verteilung der Arbeit auf die parallelen GPU Threads untersuchen wir hier die Auswirkung verschiedener Speicherzugriffsmuster auf die Performance der resultierenden Algo- rithmen. Weiter stellen wir eine Reihe von approximativen Kollisionstests vor, die auf den beschriebenen Verfahren basieren. Wenn eine geringere Genauigkeit der Tests tolerierbar ist, kann so eine weitere Verbesserung der Performance erzielt werden.rnIm zweiten Teil der Arbeit beschreiben wir einen von uns entworfenen parallelen, sampling- basierten Bewegungsplaner zur Behandlung hochkomplexer Probleme mit mehreren “narrow passages”. Das Verfahren arbeitet in zwei Phasen. Die grundlegende Idee ist hierbei, in der er- sten Planungsphase konzeptionell kleinere Fehler zuzulassen, um die Planungseffizienz zu erh ̈ohen und den resultierenden Pfad dann in einer zweiten Phase zu reparieren. Der hierzu in Phase I eingesetzte Planer basiert auf sogenannten Expansive Space Trees. Zus ̈atzlich haben wir den Planer mit einer Freidru ̈ckoperation ausgestattet, die es erlaubt, kleinere Kollisionen aufzul ̈osen und so die Effizienz in Bereichen mit eingeschr ̈ankter Bewegungsfreiheit zu erh ̈ohen. Optional erlaubt unsere Implementierung den Einsatz von approximativen Kollisionstests. Dies setzt die Genauigkeit der ersten Planungsphase weiter herab, fu ̈hrt aber auch zu einer weiteren Perfor- mancesteigerung. Die aus Phase I resultierenden Bewegungspfade sind dann unter Umst ̈anden nicht komplett kollisionsfrei. Um diese Pfade zu reparieren, haben wir einen neuartigen Pla- nungsalgorithmus entworfen, der lokal beschr ̈ankt auf eine kleine Umgebung um den bestehenden Pfad einen neuen, kollisionsfreien Bewegungspfad plant.rnWir haben den beschriebenen Algorithmus mit einer Klasse von neuen, schwierigen Metall- Puzzlen getestet, die zum Teil mehrere “narrow passages” aufweisen. Unseres Wissens nach ist eine Sammlung vergleichbar komplexer Benchmarks nicht ̈offentlich zug ̈anglich und wir fan- den auch keine Beschreibung von vergleichbar komplexen Benchmarks in der Motion-Planning Literatur.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kapillarkraft entsteht durch die Bildung eines Meniskus zwischen zwei Festkörpen. In dieser Doktorarbeit wurden die Auswirkungen von elastischer Verformung und Flϋssigkeitadsorption auf die Kapillarkraft sowohl theoretisch als auch experimentell untersucht. Unter Verwendung eines Rasterkraftmikroskops wurde die Kapillarkraft zwischen eines Siliziumoxid Kolloids von 2 µm Radius und eine weiche Oberfläche wie n.a. Polydimethylsiloxan oder Polyisopren, unter normalen Umgebungsbedingungen sowie in variierende Ethanoldampfdrϋcken gemessen. Diese Ergebnisse wurden mit den Kapillarkräften verglichen, die auf einem harten Substrat (Silizium-Wafer) unter denselben Bedingungen gemessen wurden. Wir beobachteten eine monotone Abnahme der Kapillarkraft mit zunehmendem Ethanoldampfdruck (P) fϋr P/Psat > 0,2, wobei Psat der Sättigungsdampfdruck ist.rnUm die experimentellen Ergebnisse zu erklären, wurde ein zuvor entwickeltes analytisches Modell (Soft Matter 2010, 6, 3930) erweitert, um die Ethanoladsorption zu berϋcksichtigen. Dieses neue analytische Modell zeigte zwei verschiedene Abhängigkeiten der Kapillarkraft von P/Psat auf harten und weichen Oberflächen. Fϋr die harte Oberfläche des Siliziumwafers wird die Abhängigkeit der Kapillarkraft vom Dampfdruck vom Verhältnis der Dicke der adsorbierten Ethanolschicht zum Meniskusradius bestimmt. Auf weichen Polymeroberflächen hingegen hängt die Kapillarkraft von der Oberflächenverformung und des Laplace-Drucks innerhalb des Meniskus ab. Eine Abnahme der Kapillarkraft mit zunehmendem Ethanoldampfdruck hat demnach eine Abnahme des Laplace-Drucks mit zunehmendem Meniskusradius zur folge. rnDie analytischen Berechnungen, fϋr die eine Hertzsche Kontakt-deformation angenommen wurde, wurden mit Finit Element Methode Simulationen verglichen, welche die reale Deformation des elastischen Substrats in der Nähe des Meniskuses explizit berϋcksichtigen. Diese zusätzliche nach oben gerichtete oberflächenverformung im Bereich des Meniskus fϋhrt zu einer weiteren Erhöhung der Kapillarkraft, insbesondere fϋr weiche Oberflächen mit Elastizitätsmodulen < 100 MPa.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis we investigate the phenomenology of supersymmetric particles at hadron colliders beyond next-to-leading order (NLO) in perturbation theory. We discuss the foundations of Soft-Collinear Effective Theory (SCET) and, in particular, we explicitly construct the SCET Lagrangian for QCD. As an example, we discuss factorization and resummation for the Drell-Yan process in SCET. We use techniques from SCET to improve existing calculations of the production cross sections for slepton-pair production and top-squark-pair production at hadron colliders. As a first application, we implement soft-gluon resummation at next-to-next-to-next-to-leading logarithmic order (NNNLL) for slepton-pair production in the minimal supersymmetric extension of the Standard Model (MSSM). This approach resums large logarithmic corrections arising from the dynamical enhancement of the partonic threshold region caused by steeply falling parton luminosities. We evaluate the resummed invariant-mass distribution and total cross section for slepton-pair production at the Tevatron and LHC and we match these results, in the threshold region, onto NLO fixed-order calculations. As a second application we present the most precise predictions available for top-squark-pair production total cross sections at the LHC. These results are based on approximate NNLO formulas in fixed-order perturbation theory, which completely determine the coefficients multiplying the singular plus distributions. The analysis of the threshold region is carried out in pair invariant mass (PIM) kinematics and in single-particle inclusive (1PI) kinematics. We then match our results in the threshold region onto the exact fixed-order NLO results and perform a detailed numerical analysis of the total cross section.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Verhalten kolloidaler Suspensionen unter räumlich beschränkter Geometrie ist von großer Bedeutung für die statistische Physik wie auch für die Technologie. Von speziellem Interesse sind Modellsysteme geladener kolloidaler Sphären aufgrund ihrer langreichweitigen und veränderbaren Wechselwirkungen. In dieser Arbeit wurde ein experimenteller Aufbau für die optische mikroskopische Untersuchung solcher, zwischen ebenen Wänden beschränkter Systeme realisiert. Anhand von Piezo-Aktuatoren kann die Zellgeometrie flexibel und präzise eingestellt werden. Unter Verwendung eines Pumpkreislaufs mit einer Ionentauschersäule können kolloidale Suspensionen unter stark entsalzten Bedingungen effizient präpariert werden. Anhand dieses Aufbaus wurde zunächst das Gleichgewichtsphasendiagramm monodisperser geladener kolloidaler Sphären zwischen parallelen Wänden untersucht. Es wurden quantitative Resultate für den Grenzfall starker Entsalzung erzielt, welche mit theoretischen Grundzustandsvorhersagen übereinstimmen. In Doppellagensystemen konnte die Existenz transienter kolloidaler Moiré-Rotationsmuster demonstriert werden, welche besondere zweidimensionale Kristallstrukturen mit komplexer Basis darstellen. Es wurden ferner Nichtgleichgewichtsphänomene untersucht, welche durch Gradienten von lokal freigesetzten Elektrolyten verursacht werden. Durch hauptsächlich diffusioosmotischen Partikeltransport entlang einer einzelnen geladenen Substratoberfläche konnten die Bildung kristalliner Ordnung sowie komplexe, selbstorganisierte Bewegungszustände in einem verdünnten kolloidalen Monolagenfluid bei kleinen Reynolds-Zahlen induziert werden. Interessante Perspektiven für die zukünftige Verwendung des experimentellen Aufbaus ergeben sich aus Beobachtungen verschiedener weiterer Phänomene.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data deduplication describes a class of approaches that reduce the storage capacity needed to store data or the amount of data that has to be transferred over a network. These approaches detect coarse-grained redundancies within a data set, e.g. a file system, and remove them.rnrnOne of the most important applications of data deduplication are backup storage systems where these approaches are able to reduce the storage requirements to a small fraction of the logical backup data size.rnThis thesis introduces multiple new extensions of so-called fingerprinting-based data deduplication. It starts with the presentation of a novel system design, which allows using a cluster of servers to perform exact data deduplication with small chunks in a scalable way.rnrnAfterwards, a combination of compression approaches for an important, but often over- looked, data structure in data deduplication systems, so called block and file recipes, is introduced. Using these compression approaches that exploit unique properties of data deduplication systems, the size of these recipes can be reduced by more than 92% in all investigated data sets. As file recipes can occupy a significant fraction of the overall storage capacity of data deduplication systems, the compression enables significant savings.rnrnA technique to increase the write throughput of data deduplication systems, based on the aforementioned block and file recipes, is introduced next. The novel Block Locality Caching (BLC) uses properties of block and file recipes to overcome the chunk lookup disk bottleneck of data deduplication systems. This chunk lookup disk bottleneck either limits the scalability or the throughput of data deduplication systems. The presented BLC overcomes the disk bottleneck more efficiently than existing approaches. Furthermore, it is shown that it is less prone to aging effects.rnrnFinally, it is investigated if large HPC storage systems inhibit redundancies that can be found by fingerprinting-based data deduplication. Over 3 PB of HPC storage data from different data sets have been analyzed. In most data sets, between 20 and 30% of the data can be classified as redundant. According to these results, future work in HPC storage systems should further investigate how data deduplication can be integrated into future HPC storage systems.rnrnThis thesis presents important novel work in different area of data deduplication re- search.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This thesis deals with three different physical models, where each model involves a random component which is linked to a cubic lattice. First, a model is studied, which is used in numerical calculations of Quantum Chromodynamics.In these calculations random gauge-fields are distributed on the bonds of the lattice. The formulation of the model is fitted into the mathematical framework of ergodic operator families. We prove, that for small coupling constants, the ergodicity of the underlying probability measure is indeed ensured and that the integrated density of states of the Wilson-Dirac operator exists. The physical situations treated in the next two chapters are more similar to one another. In both cases the principle idea is to study a fermion system in a cubic crystal with impurities, that are modeled by a random potential located at the lattice sites. In the second model we apply the Hartree-Fock approximation to such a system. For the case of reduced Hartree-Fock theory at positive temperatures and a fixed chemical potential we consider the limit of an infinite system. In that case we show the existence and uniqueness of minimizers of the Hartree-Fock functional. In the third model we formulate the fermion system algebraically via C*-algebras. The question imposed here is to calculate the heat production of the system under the influence of an outer electromagnetic field. We show that the heat production corresponds exactly to what is empirically predicted by Joule's law in the regime of linear response.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The development of extratropical cyclones can be seen as an interplay of three positive potential vorticity (PV) anomalies: an upper-level stratospheric intrusion, low-tropospheric diabatically produced PV, and a warm anomaly at the surface acting as a surrogate PV anomaly. In the mature stage they become vertically aligned and form a “PV tower” associated with strong cyclonic circulation. This paradigm of extratropical cyclone development provides the basis of this thesis, which will use a climatological dataset and numerical model experiments to investigate the amplitude of the three anomalies and the processes leading in particular to the formation of the diabatically produced low-tropospheric PV anomaly.rnrnThe first part of this study, based on the interim ECMWF Re-Analysis (ERA-Interim) dataset, quantifies the amplitude of the three PV anomalies in mature extratropical cyclones in different regions in the Northern Hemisphere on a climatological basis. A tracking algorithm is applied to sea level pressure (SLP) fields to identify cyclone tracks. Surface potential temperature anomalies ∆θ and vertical profiles of PV anomalies ∆PV are calculated at the time of the cyclones’ minimum SLP and during the intensification phase 24 hours before in a vertical cylinder with a radius of 200 km around the surface cyclone center. To compare the characteristics of the cyclones, they are grouped according to their location (8 regions) and intensity, where the central SLP is used as a measure of intensity. Composites of ∆PV profiles and ∆θ are calculated for each region and intensity class at the time of minimum SLP and during the cyclone intensification phase.rnrnDuring the cyclones’ development stage the amplitudes of all three anomalies increase on average. In the mature stage all three anomalies are typically larger for intense than for weak winter cyclones [e.g., 0.6 versus 0.2 potential vorticity units (PVU) at lower levels, and 1.5 versus 0.5 PVU at upper levels].rnThe regional variability of the cyclones’ vertical structure and the profile evolution is prominent (cyclones in some regions are more sensitive to the amplitude of a particular anomaly than in other regions). Values of ∆θ and low-level ∆PV are on average larger in the western parts of the oceans than in the eastern parts. In addition, a large seasonal variability can be identified, with fewer and weaker cyclones especially in the summer, associated with higher low-tropospheric PV values, but also with a higher tropopause and much weaker surface potential temperature anomalies (compared to winter cyclones).rnrnIn the second part, we were interested in the diabatic low-level part of PV towers. Evaporative sources were identified of moisture that was involved in PV production through condensation. Lagrangian backward trajectories were calculated from the region with high PV values at low-levels in the cyclones. PV production regions were identified along these trajectories and from these regions a new set of backward trajectories was calculated and moisture uptakes were traced along them. The main contribution from surface evaporation to the specific humidity of the trajectories is collected 12-72 hours prior to therntime of PV production. The uptake region for weaker cyclones with less PV in the centre is typically more localized with reduced uptake values compared to intense cyclones. However, in a qualitative sense uptakes and other variables along single trajectories do not vary much between cyclones of different intensity in different regions.rnrnA sensitivity study with the COSMO model comprises the last part of this work. The study aims at investigating the influence of synthetic moisture modification in the cyclone environment in different stages of its development. Moisture was eliminated in three regions, which were identified as important moisture source regions for PV production. Moisture suppression affected the cyclone the most in its early phase. It led to cyclolysis shortly after its genesis. Nevertheles, a new cyclone formed on the other side of a dry box and developed relatively quickly. Also in other experiments, moisture elimination led to strong intensity reduction of the surface cyclone, limited upper-level development, and delayed or missing interaction between the two.rnrnIn summary, this thesis provides novel insight into the structure of different intensity categories of extratropical cyclones from a PV perspective, which corroborates the findings from a series of previous case studies. It reveals that all three PV anomalies are typically enhanced for more intense cyclones, with important regional differences concerning the relative amplitude of the three anomalies. The moisture source analysis is the first of this kind to study the evaporation-condensation cycle related to the intensification of extratropical cyclones. Interestingly, most of the evaporation occurs during the 3 days prior to the time of maximum cyclone intensity and typically extends over fairly large areas along the track of the cyclone. The numerical model case study complements this analysis by analyzing the impact of regionally confined moisture sources for the evolution of the cyclone.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The thesis investigates the nucleon structure probed by the electromagnetic interaction. One of the most basic observables, reflecting the electromagnetic structure of the nucleon, are the form factors, which have been studied by means of elastic electron-proton scattering with ever increasing precision for several decades. In the timelike region, corresponding with the proton-antiproton annihilation into a electron-positron pair, the present experimental information is much less accurate. However, in the near future high-precision form factor measurements are planned. About 50 years after the first pioneering measurements of the electromagnetic form factors, polarization experiments stirred up the field since the results were found to be in striking contradiction to the findings of previous form factor investigations from unpolarized measurements. Triggered by the conflicting results, a whole new field studying the influence of two-photon exchange corrections to elastic electron-proton scattering emerged, which appeared as the most likely explanation of the discrepancy. The main part of this thesis deals with theoretical studies of two-photon exchange, which is investigated particularly with regard to form factor measurements in the spacelike as well as in the timelike region. An extraction of the two-photon amplitudes in the spacelike region through a combined analysis using the results of unpolarized cross section measurements and polarization experiments is presented. Furthermore, predictions of the two-photon exchange effects on the e+p/e-p cross section ratio are given for several new experiments, which are currently ongoing. The two-photon exchange corrections are also investigated in the timelike region in the process pbar{p} -> e+ e- by means of two factorization approaches. These corrections are found to be smaller than those obtained for the spacelike scattering process. The influence of the two-photon exchange corrections on cross section measurements as well as asymmetries, which allow a direct access of the two-photon exchange contribution, is discussed. Furthermore, one of the factorization approaches is applied for investigating the two-boson exchange effects in parity-violating electron-proton scattering. In the last part of the underlying work, the process pbar{p} -> pi0 e+e- is analyzed with the aim of determining the form factors in the so-called unphysical, timelike region below the two-nucleon production threshold. For this purpose, a phenomenological model is used, which provides a good description of the available data of the real photoproduction process pbar{p} -> pi0 gamma.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird die Erweiterung und Optimierung eines Diodenlasersystems zur hochauflösenden Resonanzionisationsmassenspektrometrie beschrieben. Ein doppelinterferometrisches Frequenzkontrollsystem, welches Absolutstabilisierung auf ca. 1 MHz sowie sekundenschnelle Frequenzverstimmungen um mehrere GHz für bis zu drei Laser parallel ermöglicht, wurde optimiert. Dieses Lasersystem dient zwei wesentlichen Anwendungen. Ein Aspekt waren umfangreiche spektroskopische Untersuchungen an Uranisotopen mit dem Ziel der präzisen und eindeutigen Bestimmung von Energielagen, Gesamtdrehimpulsen, Hyperfeinkonstanten und Isotopieverschiebungen sowie die Entwicklung eines effizienten, mit kommerziellen Diodenlasern betreibbaren Anregungsschemas. Mit diesen Erkenntnissen wurde die Leistungsfähigkeit des Lasermassenspektrometers für die Ultraspurenanalyse des Isotops 236U, welches als Neutronendosimeter und Tracer für radioaktive anthropogene Kontaminationen in der Umwelt verwendet wird, optimiert und charakterisiert. Anhand von synthetischen Proben wurde eine Isotopenselektivität von 236U/238U=4,5(1,5)∙10-9 demonstriert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit widmet sich der Spektraltheorie von Differentialoperatoren auf metrischen Graphen und von indefiniten Differentialoperatoren auf beschränkten Gebieten. Sie besteht aus zwei Teilen. Im Ersten werden endliche, nicht notwendigerweise kompakte, metrische Graphen und die Hilberträume von quadratintegrierbaren Funktionen auf diesen betrachtet. Alle quasi-m-akkretiven Laplaceoperatoren auf solchen Graphen werden charakterisiert, und Abschätzungen an die negativen Eigenwerte selbstadjungierter Laplaceoperatoren werden hergeleitet. Weiterhin wird die Wohlgestelltheit eines gemischten Diffusions- und Transportproblems auf kompakten Graphen durch die Anwendung von Halbgruppenmethoden untersucht. Eine Verallgemeinerung des indefiniten Operators $-tfrac{d}{dx}sgn(x)tfrac{d}{dx}$ von Intervallen auf metrische Graphen wird eingeführt. Die Spektral- und Streutheorie der selbstadjungierten Realisierungen wird detailliert besprochen. Im zweiten Teil der Arbeit werden Operatoren untersucht, die mit indefiniten Formen der Art $langlegrad v, A(cdot)grad urangle$ mit $u,vin H_0^1(Omega)subset L^2(Omega)$ und $OmegasubsetR^d$ beschränkt, assoziiert sind. Das Eigenwertverhalten entspricht in Dimension $d=1$ einer verallgemeinerten Weylschen Asymptotik und für $dgeq 2$ werden Abschätzungen an die Eigenwerte bewiesen. Die Frage, wann indefinite Formmethoden für Dimensionen $dgeq 2$ anwendbar sind, bleibt offen und wird diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Fokus dieser Arbeit lag auf der definierten Synthese multifunktioneller Polymer-Konjugate zur Anwendung in der Krebs-Immunotherapie. Durch gezielte Variation der Kon-jugationsbedingungen wurde Zusammensetzung, Größe und Aggregationsverhalten in Zell-medium sowie in humanem Serum untersucht. Nach definierter physikalisch-chemischer Charakterisierung wurde dann die induzierte Antigen-Präsentation zur Aktivierung der T-Zellproliferation analysiert.rnDafür wurden zwei verschiedene polymere Carrier-Systeme gewählt, lineares Poly-L-lysin und eine Polylysinbürste (PLL-Bürste). Es wird vermutet, dass die PLL-Bürste aufgrund der anisotropen Form eine bessere Verteilung im Körper und eine verlängerte Zirkulationsdauer zeigen wird. Die zu konjugierenden biologisch aktiven Komponenten waren der antiDEC205-Antikörper (aDEC205) für die gezielte Adressierung CD8-positiver dendritischer Zellen (DC), ein Ovalbumin (OVA)-spezifisches Antigen mit der Kernsequenz SIINFEKL für die Spezifität der Immunantwort gegen Krebszellen, die dieses Antigen tragen, und ein immunaktivieren-der TLR9-Ligand, CpG1826. Die Effizienz dieses Konjugates dendritische Zellen zu aktivieren, welche wiederum eine Immunantwort gegen OVA-exprimierende Krebszellen induzieren, wurde durch die Konjugation aller Komponenten am identischen Trägermolekül deutlich höher erwartet.rnLineares Poly-L-lysin diente als Modellsystem um die Konjugationschemie zu etablieren und dann auf die zylindrische Polylysinbürste zu übertragen. Anhand dieser polymeren Träger wurde das Verhalten der verschiedenen Topologien des Knäuels und der Bürste im Hinblick auf den Einfluss struktureller Unterschiede sowohl auf Konjugationsreaktionen als auch auf das in situ und in vitro Verhalten untersucht.rnFluoreszenzmarkiertes Antigen und der CpG Aktivator konnten jeweils aufgrund einer Thiol-Modifizierung an die Thiol-reaktive Maleimidgruppe des heterobifunktionellen Linkers Sulfo-SMCC an PLL-AlexaFluor48 konjugiert werden. Anschließend wurde aDEC205-AlexaFluor647 an PLL gekoppelt, entweder durch Schiff Base-Reaktion des oxidierten Antikörpers mit PLL und anschließender Reduzierung oder durch Click-Reaktion des PEG-Azids modifizierten An-tikörpers mit Dicyclobenzylcyclooctin (DIBO)-funktionalisiertem PLL. Die Konjugation der biologisch aktiven Komponenten wurde mit Durchflusszytometrie (FACS) und konfokaler Laser Scanning Mikroskopie (CLSM) untersucht und die Zusammensetzung des Konjugatesrnmittels UV/Vis-Spektroskopie bestimmt. Die PLL-Bürste alleine zeigte eine hohe Zytotoxizität bei HeLa und JAWS II Zelllinien, wohingegen lineares PLL und PLL-Konjugate sowie die PLL Bürsten-Konjugate keine ausgeprägte Zytotoxizität aufwiesen. Die Polymer-Konjugate wie-sen keine Aggregation in Zellmedium oder humanem Serum auf, was mittels winkelabhängi-ger dynamischer Lichtstreuung bestimmt wurde. CLSM Aufnahmen zeigten Kolokalisation der an die einzelnen Komponenten gebundenen Fluoreszenzfarbstoffe in dendritischen Zel-len, was die erfolgreiche Konjugation und Internalisierung der Konjugate in die Zellen bele-gen konnte. FACS Messungen ergaben eine geringfügig erhöhte Aufnahme des adressierten PLL-Antigen-Antikörper-Konjugates verglichen mit dem PLL-Antigen-Konjugat. Experimente mit dem „Specific Hybridization Internalization Sensor“ (SHIP) zeigten jedoch nur Aufnahme der PLL-Konjugate in CD8+ unreife DC, nicht in reife DC, die nicht mehr unspezifisch, sondern nur noch über Rezeptoren internalisieren. Dies bewies die unspezifische Aufnahme des Kon-jugates, da Antikörper-Konjugation keine Rezeptor-vermittelte Endozytose in reife DC indu-zieren konnte. T-Zell-Proliferationsassays ergaben eine Aktivierung von CD8+ T-Zellen indu-ziert durch Antigen-tragende Konjugate, wohingegen Konjugate ohne Antigen als Negativ-kontrollen dienten und keine T-Zell-Proliferation erzielten. Es konnte jedoch kein Unter-schied zwischen adressierten und nicht adressierten Konjugaten aufgrund der unspezifischen Aufnahme durch das Polymer beobachtet werden. Lösliches SIINFEKL alleine bewirkte schon bei geringeren Konzentrationen eine T-Zell-Proliferation.rnEs war somit möglich, drei biologischen Komponenten an einen polymeren Träger zu konju-gieren und diese Konjugate im Hinblick auf Zusammensetzung, Größe, Internalisierung in dendritische Zellen und Aktivierung der T-Zell-Proliferation zu untersuchen. Außerdem wur-de die Konjugationschemie erfolgreich von dem Modellsystem des linearen PLL auf die PLL-Bürste übertragen. Die Polymer-Konjugate werde unspezifisch in DC aufgenommen und in-duzieren T-Zellproliferation, die mit Antigen-Präsentationsassays nachgewiesen wird. Es konnte jedoch durch Konjugation des Antikörpers keine Rezeptor-vermittelte Aufnahme in CD8+ DC erzielt werden.rnDiese Studien stellen einen erfolgsversprechenden ersten Schritt zur Entwicklung neuer Na-nomaterialien für die Anwendung in Krebs-Immuntherapie dar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit war der Aufbau und Einsatz des Atmosphärischen chemischen Ionisations-Massenspektrometers AIMS für boden- und flugzeuggetragene Messungen von salpetriger Säure (HONO). Für das Massenspektrometer wurden eine mit Gleichspannung betriebene Gasentladungsionenquelle und ein spezielles Druckregelventil entwickelt. Während der Instrumentenvergleichskampagne FIONA (Formal Intercomparisons of Observations of Nitrous Acid) an einer Atmosphären-Simulationskammer in Valencia (Spanien) wurde AIMS für HONO kalibriert und erstmals eingesetzt. In verschiedenen Experimenten wurden HONO-Mischungsverhältnisse zwischen 100 pmol/mol und 25 nmol/mol erzeugt und mit AIMS interferenzfrei gemessen. Innerhalb der Messunsicherheit von ±20% stimmen die massenspektrometrischen Messungen gut mit den Methoden der Differenziellen Optischen Absorptions-Spektrometrie und der Long Path Absorption Photometrie überein. Die Massenspektrometrie kann somit zum schnellen und sensitiven Nachweis von HONO in verschmutzter Stadtluft und in Abgasfahnen genutzt werden.rnErste flugzeuggetragene Messungen von HONO mit AIMS wurden 2011 bei der Messkampagne CONCERT (Contrail and Cirrus Experiment) auf dem DLR Forschungsflugzeug Falcon durchgeführt. Hierbei konnte eine Nachweisgrenze von < 10 pmol/mol (3σ, 1s) erreicht werden. Bei Verfolgungsflügen wurden im jungen Abgasstrahl von Passagierflugzeugen molare HONO zu Stickoxid-Verhältnisse (HONO/NO) von 2.0 bis 2.5% gemessen. HONO wird im Triebwerk durch die Reaktion von NO mit OH gebildet. Ein gemessener abnehmender Trend der HONO/NO Verhältnisse mit zunehmendem Stickoxid-Emissionsindex wurde bestätigt und weist auf eine OH Limitierung im jungen Abgasstrahl hin.rnNeben den massenspektrometrischen Messungen wurden Flugzeugmessungen der Partikelsonde Forward Scattering Spectrometer Probe FSSP-300 in jungen Kondensstreifen ausgewertet und analysiert. Aus den gemessenen Partikelgrößenverteilungen wurden Extinktions- und optische Tiefe-Verteilungen abgeleitet und für die Untersuchung verschiedener wissenschaftlicher Fragestellungen, z.B. bezüglich der Partikelform in jungen Kondensstreifen und ihrer Klimawirkung, zur Verfügung gestellt. Im Rahmen dieser Arbeit wurde der Einfluss des Flugzeug- und Triebwerktyps auf mikrophysikalische und optische Eigenschaften von Kondensstreifen untersucht. Unter ähnlichen meteorologischen Bedingungen bezüglich Feuchte, Temperatur und stabiler thermischer Schichtung wurden 2 Minuten alte Kondensstreifen der Passagierflugzeuge vom Typ A319-111, A340-311 und A380-841 verglichen. Im Rahmen der Messunsicherheit wurde keine Änderung des Effektivdurchmessers der Partikelgrößenverteilungen gefunden. Hingegen nehmen mit zunehmendem Flugzeuggewicht die Partikelanzahldichte (162 bis 235 cm-3), die Extinktion (2.1 bis 3.2 km-1), die Absinktiefe des Kondensstreifens (120 bis 290 m) und somit die optische Tiefe der Kondensstreifen (0.25 bis 0.94) zu. Der gemessene Trend wurde durch Vergleich mit zwei unabhängigen Kondensstreifen-Modellen bestätigt. Mit den Messungen wurde eine lineare Abhängigkeit der totalen Extinktion (Extinktion mal Querschnittsfläche des Kondensstreifens) vom Treibstoffverbrauch pro Flugstrecke gefunden und bestätigt.