994 resultados para Medizinische Informatik
Resumo:
In this thesis we are presenting a broadly based computer simulation study of two-dimensional colloidal crystals under different external conditions. In order to fully understand the phenomena which occur when the system is being compressed or when the walls are being sheared, it proved necessary to study also the basic motion of the particles and the diffusion processes which occur in the case without these external forces. In the first part of this thesis we investigate the structural transition in the number of rows which occurs when the crystal is being compressed by placing the structured walls closer together. Previous attempts to locate this transition were impeded by huge hysteresis effects. We were able to determine the transition point with higher precision by applying both the Schmid-Schilling thermodynamic integration method and the phase switch Monte Carlo method in order to determine the free energies. These simulations showed not only that the phase switch method can successfully be applied to systems with a few thousand particles and a soft crystalline structure with a superimposed pattern of defects, but also that this method is way more efficient than a thermodynamic integration when free energy differences are to be calculated. Additionally, the phase switch method enabled us to distinguish between several energetically very similar structures and to determine which one of them was actually stable. Another aspect considered in the first result chapter of this thesis is the ensemble inequivalence which can be observed when the structural transition is studied in the NpT and in the NVT ensemble. The second part of this work deals with the basic motion occurring in colloidal crystals confined by structured walls. Several cases are compared where the walls are placed in different positions, thereby introducing an incommensurability into the crystalline structure. Also the movement of the solitons, which are created in the course of the structural transition, is investigated. Furthermore, we will present results showing that not only the well-known mechanism of vacancies and interstitial particles leads to diffusion in our model system, but that also cooperative ring rotation phenomena occur. In this part and the following we applied Langevin dynamics simulations. In the last chapter of this work we will present results on the effect of shear on the colloidal crystal. The shear was implemented by moving the walls with constant velocity. We have observed shear banding and, depending on the shear velocity, that the inner part of the crystal breaks into several domains with different orientations. At very high shear velocities holes are created in the structure, which originate close to the walls, but also diffuse into the inner part of the crystal.
Resumo:
If the generic fibre f−1(c) of a Lagrangian fibration f : X → B on a complex Poisson– variety X is smooth, compact, and connected, it is isomorphic to the compactification of a complex abelian Lie–group. For affine Lagrangian fibres it is not clear what the structure of the fibre is. Adler and van Moerbeke developed a strategy to prove that the generic fibre of a Lagrangian fibration is isomorphic to the affine part of an abelian variety.rnWe extend their strategy to verify that the generic fibre of a given Lagrangian fibration is the affine part of a (C∗)r–extension of an abelian variety. This strategy turned out to be successful for all examples we studied. Additionally we studied examples of Lagrangian fibrations that have the affine part of a ramified cyclic cover of an abelian variety as generic fibre. We obtained an embedding in a Lagrangian fibration that has the affine part of a C∗–extension of an abelian variety as generic fibre. This embedding is not an embedding in the category of Lagrangian fibrations. The C∗–quotient of the new Lagrangian fibration defines in a natural way a deformation of the cyclic quotient of the original Lagrangian fibration.
Resumo:
Die Forschungsarbeit siedelt sich im Dreieck der Erziehungswissenschaften, der Informatik und der Schulpraxis an und besitzt somit einen starken interdisziplinären Charakter. Aus Sicht der Erziehungswissenschaften handelt es sich um ein Forschungsprojekt aus den Bereichen E-Learning und Multimedia Learning und der Fragestellung nach geeigneten Informatiksystemen für die Herstellung und den Austausch von digitalen, multimedialen und interaktiven Lernbausteinen. Dazu wurden zunächst methodisch-didaktische Vorteile digitaler Lerninhalte gegenüber klassischen Medien wie Buch und Papier zusammengetragen und mögliche Potentiale im Zusammenhang mit neuen Web2.0-Technologien aufgezeigt. Darauf aufbauend wurde für existierende Autorenwerkzeuge zur Herstellung digitaler Lernbausteine und bestehende Austauschplattformen analysiert, inwieweit diese bereits Web 2.0-Technologien unterstützen und nutzen. Aus Sicht der Informatik ergab sich aus der Analyse bestehender Systeme ein Anforderungsprofil für ein neues Autorenwerkzeug und eine neue Austauschplattform für digitale Lernbausteine. Das neue System wurde nach dem Ansatz des Design Science Research in einem iterativen Entwicklungsprozess in Form der Webapplikation LearningApps.org realisiert und stetig mit Lehrpersonen aus der Schulpraxis evaluiert. Bei der Entwicklung kamen aktuelle Web-Technologien zur Anwendung. Das Ergebnis der Forschungsarbeit ist ein produktives Informatiksystem, welches bereits von tausenden Nutzern in verschiedenen Ländern sowohl in Schulen als auch in der Wirtschaft eingesetzt wird. In einer empirischen Studie konnte das mit der Systementwicklung angestrebte Ziel, die Herstellung und den Austausch von digitalen Lernbausteinen zu vereinfachen, bestätigt werden. Aus Sicht der Schulpraxis liefert LearningApps.org einen Beitrag zur Methodenvielfalt und zur Nutzung von ICT im Unterricht. Die Ausrichtung des Werkzeugs auf mobile Endgeräte und 1:1-Computing entspricht dem allgemeinen Trend im Bildungswesen. Durch die Verknüpfung des Werkzeugs mit aktuellen Software Entwicklungen zur Herstellung von digitalen Schulbüchern werden auch Lehrmittelverlage als Zielgruppe angesprochen.
Resumo:
Geometric packing problems may be formulated mathematically as constrained optimization problems. But finding a good solution is a challenging task. The more complicated the geometry of the container or the objects to be packed, the more complex the non-penetration constraints become. In this work we propose the use of a physics engine that simulates a system of colliding rigid bodies. It is a tool to resolve interpenetration conflicts and to optimize configurations locally. We develop an efficient and easy-to-implement physics engine that is specialized for collision detection and contact handling. In succession of the development of this engine a number of novel algorithms for distance calculation and intersection volume were designed and imple- mented, which are presented in this work. They are highly specialized to pro- vide fast responses for cuboids and triangles as input geometry whereas the concepts they are based on can easily be extended to other convex shapes. Especially noteworthy in this context is our ε-distance algorithm - a novel application that is not only very robust and fast but also compact in its im- plementation. Several state-of-the-art third party implementations are being presented and we show that our implementations beat them in runtime and robustness. The packing algorithm that lies on top of the physics engine is a Monte Carlo based approach implemented for packing cuboids into a container described by a triangle soup. We give an implementation for the SAE J1100 variant of the trunk packing problem. We compare this implementation to several established approaches and we show that it gives better results in faster time than these existing implementations.
Resumo:
Spectroscopy of the 1S-2S transition of antihydrogen confined in a neutral atom trap and comparison with the equivalent spectral line in hydrogen will provide an accurate test of CPT symmetry and the first one in a mixed baryon-lepton system. Also, with neutral antihydrogen atoms, the gravitational interaction between matter and antimatter can be tested unperturbed by the much stronger Coulomb forces.rnAntihydrogen is regularly produced at CERN's Antiproton Decelerator by three-body-recombination (TBR) of one antiproton and two positrons. The method requires injecting antiprotons into a cloud of positrons, which raises the average temperature of the antihydrogen atoms produced way above the typical 0.5 K trap depths of neutral atom traps. Therefore only very few antihydrogen atoms can be confined at a time. Precision measurements, like laser spectroscopy, will greatly benefit from larger numbers of simultaneously trapped antihydrogen atoms.rnTherefore, the ATRAP collaboration developed a different production method that has the potential to create much larger numbers of cold, trappable antihydrogen atoms. Positrons and antiprotons are stored and cooled in a Penning trap in close proximity. Laser excited cesium atoms collide with the positrons, forming Rydberg positronium, a bound state of an electron and a positron. The positronium atoms are no longer confined by the electric potentials of the Penning trap and some drift into the neighboring cloud of antiprotons where, in a second charge exchange collision, they form antihydrogen. The antiprotons remain at rest during the entire process, so much larger numbers of trappable antihydrogen atoms can be produced. Laser excitation is necessary to increase the efficiency of the process since the cross sections for charge-exchange collisions scale with the fourth power of the principal quantum number n.rnThis method, named double charge-exchange, was demonstrated by ATRAP in 2004. Since then, ATRAP constructed a new combined Penning Ioffe trap and a new laser system. The goal of this thesis was to implement the double charge-exchange method in this new apparatus and increase the number of antihydrogen atoms produced.rnCompared to our previous experiment, we could raise the numbers of positronium and antihydrogen atoms produced by two orders of magnitude. Most of this gain is due to the larger positron and antiproton plasmas available by now, but we could also achieve significant improvements in the efficiencies of the individual steps. We therefore showed that the double charge-exchange can produce comparable numbers of antihydrogen as the TBR method, but the fraction of cold, trappable atoms is expected to be much higher. Therefore this work is an important step towards precision measurements with trapped antihydrogen atoms.
Resumo:
Among the different approaches for a construction of a fundamental quantum theory of gravity the Asymptotic Safety scenario conjectures that quantum gravity can be defined within the framework of conventional quantum field theory, but only non-perturbatively. In this case its high energy behavior is controlled by a non-Gaussian fixed point of the renormalization group flow, such that its infinite cutoff limit can be taken in a well defined way. A theory of this kind is referred to as non-perturbatively renormalizable. In the last decade a considerable amount of evidence has been collected that in four dimensional metric gravity such a fixed point, suitable for the Asymptotic Safety construction, indeed exists. This thesis extends the Asymptotic Safety program of quantum gravity by three independent studies that differ in the fundamental field variables the investigated quantum theory is based on, but all exhibit a gauge group of equivalent semi-direct product structure. It allows for the first time for a direct comparison of three asymptotically safe theories of gravity constructed from different field variables. The first study investigates metric gravity coupled to SU(N) Yang-Mills theory. In particular the gravitational effects to the running of the gauge coupling are analyzed and its implications for QED and the Standard Model are discussed. The second analysis amounts to the first investigation on an asymptotically safe theory of gravity in a pure tetrad formulation. Its renormalization group flow is compared to the corresponding approximation of the metric theory and the influence of its enlarged gauge group on the UV behavior of the theory is analyzed. The third study explores Asymptotic Safety of gravity in the Einstein-Cartan setting. Here, besides the tetrad, the spin connection is considered a second fundamental field. The larger number of independent field components and the enlarged gauge group render any RG analysis of this system much more difficult than the analog metric analysis. In order to reduce the complexity of this task a novel functional renormalization group equation is proposed, that allows for an evaluation of the flow in a purely algebraic manner. As a first example of its suitability it is applied to a three dimensional truncation of the form of the Holst action, with the Newton constant, the cosmological constant and the Immirzi parameter as its running couplings. A detailed comparison of the resulting renormalization group flow to a previous study of the same system demonstrates the reliability of the new equation and suggests its use for future studies of extended truncations in this framework.
Resumo:
Seit Anbeginn der Menschheitsgeschichte beeinflussen die Menschen ihre Umwelt. Durch anthropogene Emissionen ändert sich die Zusammensetzung der Atmosphäre, was einen zunehmenden Einfluss unter anderem auf die Atmosphärenchemie, die Gesundheit von Mensch, Flora und Fauna und das Klima hat. Die steigende Anzahl riesiger, wachsender Metropolen geht einher mit einer räumlichen Konzentration der Emission von Luftschadstoffen, was vor allem einen Einfluss auf die Luftqualität der windabwärts gelegenen ruralen Regionen hat. In dieser Doktorarbeit wurde im Rahmen des MEGAPOLI-Projektes die Abluftfahne der Megastadt Paris unter Anwendung des mobilen Aerosolforschungslabors MoLa untersucht. Dieses ist mit modernen, zeitlich hochauflösenden Instrumenten zur Messung der chemischen Zusammensetzung und Größenverteilung der Aerosolpartikel sowie einiger Spurengase ausgestattet. Es wurden mobile Messstrategien entwickelt und angewendet, die besonders geeignet zur Charakterisierung urbaner Emissionen sind. Querschnittsmessfahrten durch die Abluftfahne und atmosphärische Hintergrundluftmassen erlaubten sowohl die Bestimmung der Struktur und Homogenität der Abluftfahne als auch die Berechnung des Beitrags der urbanen Emissionen zur Gesamtbelastung der Atmosphäre. Quasi-Lagrange’sche Radialmessfahrten dienten der Erkundung der räumlichen Erstreckung der Abluftfahne sowie auftretender Transformationsprozesse der advehierten Luftschadstoffe. In Kombination mit Modellierungen konnte die Struktur der Abluftfahne vertieft untersucht werden. Flexible stationäre Messungen ergänzten den Datensatz und ließen zudem Vergleichsmessungen mit anderen Messstationen zu. Die Daten einer ortsfesten Messstation wurden zusätzlich verwendet, um die Alterung des organischen Partikelanteils zu beschreiben. Die Analyse der mobilen Messdaten erforderte die Entwicklung einer neuen Methode zur Bereinigung des Datensatzes von lokalen Störeinflüssen. Des Weiteren wurden die Möglichkeiten, Grenzen und Fehler bei der Anwendung komplexer Analyseprogramme zur Berechnung des O/C-Verhältnisses der Partikel sowie der Klassifizierung der Aerosolorganik untersucht. Eine Validierung verschiedener Methoden zur Bestimmung der Luftmassenherkunft war für die Auswertung ebenfalls notwendig. Die detaillierte Untersuchung der Abluftfahne von Paris ergab, dass diese sich anhand der Erhöhung der Konzentrationen von Indikatoren für unprozessierte Luftverschmutzung im Vergleich zu Hintergrundwerten identifizieren lässt. Ihre eher homogene Struktur kann zumeist durch eine Gauß-Form im Querschnitt mit einem exponentiellen Abfall der unprozessierten Schadstoffkonzentrationen mit zunehmender Distanz zur Stadt beschrieben werden. Hierfür ist hauptsächlich die turbulente Vermischung mit Umgebungsluftmassen verantwortlich. Es konnte nachgewiesen werden, dass in der advehierten Abluftfahne eine deutliche Oxidation der Aerosolorganik im Sommer stattfindet; im Winter hingegen ließ sich dieser Prozess während der durchgeführten Messungen nicht beobachten. In beiden Jahreszeiten setzt sich die Abluftfahne hauptsächlich aus Ruß und organischen Partikelkomponenten im PM1-Größenbereich zusammen, wobei die Quellen Verkehr und Kochen sowie zusätzlich Heizen in der kalten Jahreszeit dominieren. Die PM1-Partikelmasse erhöhte sich durch die urbanen Emissionen im Vergleich zum Hintergrundwert im Sommer in der Abluftfahne im Mittel um 30% und im Winter um 10%. Besonders starke Erhöhungen ließen sich für Polyaromaten beobachten, wo im Sommer eine mittlere Zunahme von 194% und im Winter von 131% vorlag. Jahreszeitliche Unterschiede waren ebenso in der Größenverteilung der Partikel der Abluftfahne zu finden, wo im Winter im Gegensatz zum Sommer keine zusätzlichen nukleierten kleinen Partikel, sondern nur durch Kondensation und Koagulation angewachsene Partikel zwischen etwa 10nm und 200nm auftraten. Die Spurengaskonzentrationen unterschieden sich ebenfalls, da chemische Reaktionen temperatur- und mitunter strahlungsabhängig sind. Weitere Anwendungsmöglichkeiten des MoLa wurden bei einer Überführungsfahrt von Deutschland an die spanische Atlantikküste demonstriert, woraus eine Kartierung der Luftqualität entlang der Fahrtroute resultierte. Es zeigte sich, dass hauptsächlich urbane Ballungszentren von unprozessierten Luftschadstoffen betroffen sind, advehierte gealterte Substanzen jedoch jede Region beeinflussen können. Die Untersuchung der Luftqualität an Standorten mit unterschiedlicher Exposition bezüglich anthropogener Quellen erweiterte diese Aussage um einen Einblick in die Variation der Luftqualität, abhängig unter anderem von der Wetterlage und der Nähe zu Emissionsquellen. Damit konnte gezeigt werden, dass sich die entwickelten Messstrategien und Analysemethoden nicht nur zur Untersuchung der Abluftfahne einer Großstadt, sondern auch auf verschiedene andere wissenschaftliche und umweltmesstechnische Fragestellungen anwenden lassen.
Resumo:
Das in dieser Arbeit vorgestellte Experiment zur Messung des magnetischen Moments des Protons basiert auf der Messung des Verhältnisses von Zyklotronfrequenz und Larmorfrequenz eines einzelnen, in einer kryogenen Doppel-Penning Falle gespeicherten Protons. In dieser Arbeit konnten erstmalig zwei der drei Bewegungsfrequenzen des Protons gleichzeitig im thermischen Gleichgewicht mit entsprechenden hochsensitiven Nachweissystemen nicht-destruktiv detektiert werden, wodurch die Messzeit zur Bestimmung der Zyklotronfrequenz halbiert werden konnte. Ferner wurden im Rahmen dieser Arbeit erstmalig einzelne Spin-Übergänge eines einzelnen Protons detektiert, wodurch die Bestimmung der Larmorfrequenz ermöglicht wird. Mithilfe des kontinuierlichen Stern-Gerlach Effekts wird durch eine sogenannte magnetische Flasche das magnetische Moment an die axiale Bewegungsmode des Protons gekoppelt. Eine Änderung des Spinzustands verursacht folglich einen Frequenzsprung der axialen Bewegungsfrequenz, welche nicht-destruktiv gemessen werden kann. Erschwert wird die Detektion des Spinzustands dadurch, dass die axiale Frequenz nicht nur vom Spinmoment, sondern auch vom Bahnmoment abhängt. Die große experimentelle Herausforderung besteht also in der Verhinderung von Energieschwankungen in den radialen Bewegungsmoden, um die Detektierbarkeit von Spin-Übergängen zu gewährleisten. Durch systematische Studien zur Stabilität der axialen Frequenz sowie einer kompletten Überarbeitung des experimentellen Aufbaus, konnte dieses Ziel erreicht werden. Erstmalig kann der Spinzustand eines einzelnen Protons mit hoher Zuverlässigkeit bestimmt werden. Somit stellt diese Arbeit einen entscheidenden Schritt auf dem Weg zu einer hochpräzisen Messung des magnetischen Moments des Protons dar.
Parahydrogen induced polarization on a clinical MRI system : polarization transfer of two spin order
Resumo:
Hyperpolarization techniques enhance the nuclear spin polarization and thus allow for new nuclear magnetic resonance applications like in vivo metabolic imaging. One of these techniques is Parahydrogen Induced Polarization (PHIP). It leads to a hyperpolarized 1H spin state which can be transferred to a heteronucleus like 13C by a radiofrequency (RF) pulse sequence. In this work, timing of such a sequence was analyzed and optimized for the molecule hydroxyethyl propionate. The pulse sequence was adapted for the work on a clinical magnetic resonance imaging (MRI) system which is usually equipped only with a single RF transmit channel. Optimal control theory optimizations were performed to achieve an optimized polarization transfer. A drawback of hyperpolarization is its limited lifetime due to relaxation processes. The lifetime can be increased by storing the hyperpolarization in a spin singlet state. The second part of this work therefore addresses the spin singlet state of the Cs-symmetric molecule dimethyl maleate which needs to be converted to the spin triplet state to be detectable. This conversion was realized on a clinical MRI system, both by field cycling and by two RF pulse sequences which were adapted and optimized for this purpose. Using multiple conversions enables the determination of the lifetime of the singlet state as well as the conversion efficiency of the RF pulse sequence. Both, the hyperpolarized 13C spin state and the converted singlet state were utilized for MR imaging. Careful choice of the echo time was shown to be crucial for both molecules.
Resumo:
In dieser Arbeit stelle ich Aspekte zu QCD Berechnungen vor, welche eng verknüpft sind mit der numerischen Auswertung von NLO QCD Amplituden, speziell der entsprechenden Einschleifenbeiträge, und der effizienten Berechnung von damit verbundenen Beschleunigerobservablen. Zwei Themen haben sich in der vorliegenden Arbeit dabei herauskristallisiert, welche den Hauptteil der Arbeit konstituieren. Ein großer Teil konzentriert sich dabei auf das gruppentheoretische Verhalten von Einschleifenamplituden in QCD, um einen Weg zu finden die assoziierten Farbfreiheitsgrade korrekt und effizient zu behandeln. Zu diesem Zweck wird eine neue Herangehensweise eingeführt welche benutzt werden kann, um farbgeordnete Einschleifenpartialamplituden mit mehreren Quark-Antiquark Paaren durch Shufflesummation über zyklisch geordnete primitive Einschleifenamplituden auszudrücken. Ein zweiter großer Teil konzentriert sich auf die lokale Subtraktion von zu Divergenzen führenden Poltermen in primitiven Einschleifenamplituden. Hierbei wurde im Speziellen eine Methode entwickelt, um die primitiven Einchleifenamplituden lokal zu renormieren, welche lokale UV Counterterme und effiziente rekursive Routinen benutzt. Zusammen mit geeigneten lokalen soften und kollinearen Subtraktionstermen wird die Subtraktionsmethode dadurch auf den virtuellen Teil in der Berechnung von NLO Observablen erweitert, was die voll numerische Auswertung der Einschleifenintegrale in den virtuellen Beiträgen der NLO Observablen ermöglicht. Die Methode wurde schließlich erfolgreich auf die Berechnung von NLO Jetraten in Elektron-Positron Annihilation im farbführenden Limes angewandt.
Resumo:
In dieser Arbeit wurden Simulation von Flüssigkeiten auf molekularer Ebene durchgeführt, wobei unterschiedliche Multi-Skalen Techniken verwendet wurden. Diese erlauben eine effektive Beschreibung der Flüssigkeit, die weniger Rechenzeit im Computer benötigt und somit Phänomene auf längeren Zeit- und Längenskalen beschreiben kann.rnrnEin wesentlicher Aspekt ist dabei ein vereinfachtes (“coarse-grained”) Modell, welches in einem systematischen Verfahren aus Simulationen des detaillierten Modells gewonnen wird. Dabei werden ausgewählte Eigenschaften des detaillierten Modells (z.B. Paar-Korrelationsfunktion, Druck, etc) reproduziert.rnrnEs wurden Algorithmen untersucht, die eine gleichzeitige Kopplung von detaillierten und vereinfachten Modell erlauben (“Adaptive Resolution Scheme”, AdResS). Dabei wird das detaillierte Modell in einem vordefinierten Teilvolumen der Flüssigkeit (z.B. nahe einer Oberfläche) verwendet, während der Rest mithilfe des vereinfachten Modells beschrieben wird.rnrnHierzu wurde eine Methode (“Thermodynamische Kraft”) entwickelt um die Kopplung auch dann zu ermöglichen, wenn die Modelle in verschiedenen thermodynamischen Zuständen befinden. Zudem wurde ein neuartiger Algorithmus der Kopplung beschrieben (H-AdResS) der die Kopplung mittels einer Hamilton-Funktion beschreibt. In diesem Algorithmus ist eine zur Thermodynamischen Kraft analoge Korrektur mit weniger Rechenaufwand möglich.rnrnAls Anwendung dieser grundlegenden Techniken wurden Pfadintegral Molekulardynamik (MD) Simulationen von Wasser untersucht. Mithilfe dieser Methode ist es möglich, quantenmechanische Effekte der Kerne (Delokalisation, Nullpunktsenergie) in die Simulation einzubeziehen. Hierbei wurde zuerst eine Multi-Skalen Technik (“Force-matching”) verwendet um eine effektive Wechselwirkung aus einer detaillierten Simulation auf Basis der Dichtefunktionaltheorie zu extrahieren. Die Pfadintegral MD Simulation verbessert die Beschreibung der intra-molekularen Struktur im Vergleich mit experimentellen Daten. Das Modell eignet sich auch zur gleichzeitigen Kopplung in einer Simulation, wobei ein Wassermolekül (beschrieben durch 48 Punktteilchen im Pfadintegral-MD Modell) mit einem vereinfachten Modell (ein Punktteilchen) gekoppelt wird. Auf diese Weise konnte eine Wasser-Vakuum Grenzfläche simuliert werden, wobei nur die Oberfläche im Pfadintegral Modell und der Rest im vereinfachten Modell beschrieben wird.
Resumo:
Mineral dust is an important component of the Earth's climate system and provides essential nutrientsrnto oceans and rain forests. During atmospheric transport, dust particles directly and indirectly influencernweather and climate. The strength of dust sources and characteristics of the transport, in turn, mightrnbe subject to climatic changes. Earth system models help for a better understanding of these complexrnmechanisms.rnrnThis thesis applies the global climate model ECHAM5/MESSy Atmospheric Chemistry (EMAC) for simulationsrnof the mineral dust cycle under different climatic conditions. The prerequisite for suitable modelrnresults is the determination of the model setup reproducing the most realistic dust cycle in the recentrnclimate. Simulations with this setup are used to gain new insights into properties of the transatlanticrndust transport from Africa to the Americas and adaptations of the model's climate forcing factors allowrnfor investigations of the impact of climatic changes on the dust cycle.rnrnIn the first part, the most appropriate model setup is determined through a number of sensitivity experiments.rnIt uses the dust emission parametrisation from Tegen et al. 2002 and a spectral resolutionrnof T85, corresponding to a horizontal grid spacing of about 155 km. Coarser resolutions are not able tornaccurately reproduce emissions from important source regions such as the Bodele Depression in Chad orrnthe Taklamakan Desert in Central Asia. Furthermore, the representation of ageing and wet deposition ofrndust particles in the model requires a basic sulphur chemical mechanism. This setup is recommended forrnfuture simulations with EMAC focusing on mineral dust.rnrnOne major branch of the global dust cycle is the long-range transport from the world's largest dustrnsource, the Sahara, across the Atlantic Ocean. Seasonal variations of the main transport pathways to thernAmazon Basin in boreal winter and to the Caribbean during summer are well known and understood,rnand corroborated in this thesis. Both Eulerian and Lagrangian methods give estimates on the typicalrntransport times from the source regions to the deposition on the order of nine to ten days. Previously, arnhuge proportion of the dust transported across the Atlantic Ocean has been attributed to emissions fromrnthe Bodele Depression. However, the contribution of this hot spot to the total transport is very low inrnthe present results, although the overall emissions from this region are comparable. Both model resultsrnand data sets analysed earlier, such as satellite products, involve uncertainties and this controversy aboutrndust transport from the Bodele Depression calls for future investigations and clarification.rnrnAforementioned characteristics of the transatlantic dust transport just slightly change in simulationsrnrepresenting climatic conditions of the Little Ice Age in the middle of the last millennium with meanrnnear-surface cooling of 0.5 to 1 K. However, intensification of the West African summer monsoon duringrnthe Little Ice Age is associated with higher dust emissions from North African source regions and wetterrnconditions in the Sahel. Furthermore, the Indian Monsoon and dust emissions from the Arabian Peninsula,rnwhich are affected by this circulation, are intensified during the Little Ice Age, whereas the annual globalrndust budget is similar in both climate epochs. Simulated dust emission fluxes are particularly influencedrnby the surface parameters. Modifications of the model do not affect those in this thesis, to be able tornascribe all differences in the results to changed forcing factors, such as greenhouse gas concentrations.rnDue to meagre comparison data sets, the verification of results presented here is problematic. Deeperrnknowledge about the dust cycle during the Little Ice Age can be obtained by future simulations, based onrnthis work, and additionally using improved reconstructions of surface parameters. Better evaluation ofrnsuch simulations would be possible by refining the temporal resolution of reconstructed dust depositionrnfluxes from existing ice and marine sediment cores.
Resumo:
Die Förderung der Zelladhäsion durch sogenannte biomimetische Oberflächen wird in der Medizin als vielversprechender Ansatz gesehen, um Komplikationen wie z. B. Fremdkörperreaktionen nach der Implantation entgegenzuwirken. Neben der Immobilisierung einzelner Biomoleküle wie z. B. dem RGD-Peptid, Proteinen und Wachstumsfaktoren auf verschiedenen Materialien, konzentriert man sich derzeit in der Forschung auf die Co-Immobilisierung zweier Moleküle gleichzeitig. Hierbei werden die funktionellen Gruppen z. B. von Kollagen unter Verwendung von nur einer Kopplungschemie verwendet, wodurch die Kopplungseffizienz der einzelnen Komponenten nur begrenzt kontrollierbar ist. Das Ziel der vorliegenden Arbeit war die Entwicklung eines Immobilisierungsverfahrens, welches die unabhängige Kopplung zweier Faktoren kontrolliert ermöglicht. Dabei sollten exemplarisch das adhäsionsfördernde RGD-Peptid (Arginin-Glycin-Asparaginsäure) zusammen mit dem Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) auf Titan gebunden werden. In weiteren Experimenten sollten dann die pro-adhäsiven Faktoren Fibronektin, Kollagen, Laminin und Osteopontin immobilisiert und untersucht werden. rnDie Aminofunktionalisierung von Titan durch plasma polymerisierte Allylaminschichten wurde als Grundlage für die Entwicklung des nasschemischen Co-immobilisierungsverfahren verwendet. Für eine unabhängige und getrennte Anbindung der verschiedenen Biomoleküle stand in diesem Zusammenhang die Entwicklung eines geeigneten Crosslinker Systems im Vordergrund. Die Oberflächencharakterisierung der entwickelten Oberflächen erfolgte mittels Infrarot Spektroskopie, Surface Plasmon Resonance Spektroskopie (SPR), Kontaktwinkelmessungen, Step Profiling und X-Ray Photoelectron Spektroskopie (XPS). Zur Analyse der Anbindungsprozesse in Echtzeit wurden SPR-Kinetik Messungen durchgeführt. Die biologische Funktionalität der modifizierten Oberflächen wurde in vitro an Endothelzellen (HUVECs) und Osteoblasten (HOBs) und in vivo in einem Tiermodell-System an der Tibia von Kaninchen untersucht.rnDie Ergebnisse zeigen, dass alle genannten Biomoleküle sowohl einzeln auf Titan kovalent gekoppelt als auch am Bespiel von RGD und VEGF in einem getrennten Zwei-Schritt-Verfahren co-immobilisiert werden können. Des Weiteren wurde die biologische Funktionalität der gebundenen Faktoren nachgewiesen. Im Falle der RGD modifizierten Oberflächen wurde nach 7 Tagen eine geförderte Zelladhäsion von HUVECs mit einer signifikant erhöhten Zellbesiedlungsdichte von 28,5 % (p<0,05) gezeigt, wohingegen auf reinem Titan Werte von nur 13 % beobachtet wurden. Sowohl VEGF als auch RGD/VEGF modifizierte Proben wiesen im Vergleich zu Titan schon nach 24 Stunden eine geförderte Zelladhäsion und eine signifikant erhöhte Zellbesiedlungsdichte auf. Bei einer Besiedlung von 7,4 % auf Titan, zeigten VEGF modifizierte Proben mit 32,3 % (p<0,001) eine deutlichere Wirkung auf HUVECs als RGD/VEGF modifizierte Proben mit 13,2 % (p<0,01). Die pro-adhäsiven Faktoren zeigten eine deutliche Stimulation der Zelladhäsion von HUVECs und HOBs im Vergleich zu reinem Titan. Die deutlich höchsten Besiedlungsdichten von HUVECs konnten auf Fibronektin mit 44,6 % (p<0,001) und Kollagen mit 39,9 % (p<0,001) nach 24 Stunden beobachtet werden. Laminin zeigte keine und Osteopontin nur eine sehr geringe Wirkung auf HUVECs. Bei Osteoblasten konnten signifikant erhöhte Besiedlungsdichten im Falle aller pro-adhäsiven Faktoren beobachtet werden, jedoch wurden die höchsten Werte nach 7 Tagen auf Kollagen mit 90,6 % (p<0,001) und Laminin mit 86,5 % (p<0,001) im Vergleich zu Titan mit 32,3 % beobachtet. Die Auswertung der Tierexperimente ergab, dass die VEGF modifizierten Osteosyntheseplatten, im Vergleich zu den reinen Titankontrollen, eine gesteigerte Knochenneubildung auslösten. Eine solche Wirkung konnte für RGD/VEGF modifizierte Implantate nicht beobachtet werden. rnInsgesamt konnte gezeigt werden, dass mittels plasmapolymerisierten Allylamin Schichten die genannten Biomoleküle sowohl einzeln gebunden als auch getrennt und kontrolliert co-immobilisiert werden können. Des Weiteren konnte eine biologische Funktionalität für alle Faktoren nach erfolgter Kopplung in vitro gezeigt werden. Wider Erwarten konnte jedoch kein zusätzlicher biologischer Effekt durch die Co-immobilisierung von RGD und VEGF im Vergleich zu den einzeln immobilisierten Faktoren gezeigt werden. Um zu einer klinischen Anwendung zu gelangen, ist es nun notwendig, das entwickelte Verfahren in Bezug auf die immobilisierten Mengen der verschiedenen Faktoren hin zu optimieren. rn
Resumo:
Urban centers significantly contribute to anthropogenic air pollution, although they cover only a minor fraction of the Earth's land surface. Since the worldwide degree of urbanization is steadily increasing, the anthropogenic contribution to air pollution from urban centers is expected to become more substantial in future air quality assessments. The main objective of this thesis was to obtain a more profound insight in the dispersion and the deposition of aerosol particles from 46 individual major population centers (MPCs) as well as the regional and global influence on the atmospheric distribution of several aerosol types. For the first time, this was assessed in one model framework, for which the global model EMAC was applied with different representations of aerosol particles. First, in an approach with passive tracers and a setup in which the results depend only on the source location and the size and the solubility of the tracers, several metrics and a regional climate classification were used to quantify the major outflow pathways, both vertically and horizontally, and to compare the balance between pollution export away from and pollution build-up around the source points. Then in a more comprehensive approach, the anthropogenic emissions of key trace species were changed at the MPC locations to determine the cumulative impact of the MPC emissions on the atmospheric aerosol burdens of black carbon, particulate organic matter, sulfate, and nitrate. Ten different mono-modal passive aerosol tracers were continuously released at the same constant rate at each emission point. The results clearly showed that on average about five times more mass is advected quasi-horizontally at low levels than exported into the upper troposphere. The strength of the low-level export is mainly determined by the location of the source, while the vertical transport is mainly governed by the lifting potential and the solubility of the tracers. Similar to insoluble gas phase tracers, the low-level export of aerosol tracers is strongest at middle and high latitudes, while the regions of strongest vertical export differ between aerosol (temperate winter dry) and gas phase (tropics) tracers. The emitted mass fraction that is kept around MPCs is largest in regions where aerosol tracers have short lifetimes; this mass is also critical for assessing the impact on humans. However, the number of people who live in a strongly polluted region around urban centers depends more on the population density than on the size of the area which is affected by strong air pollution. Another major result was that fine aerosol particles (diameters smaller than 2.5 micrometer) from MPCs undergo substantial long-range transport, with about half of the emitted mass being deposited beyond 1000 km away from the source. In contrast to this diluted remote deposition, there are areas around the MPCs which experience high deposition rates, especially in regions which are frequently affected by heavy precipitation or are situated in poorly ventilated locations. Moreover, most MPC aerosol emissions are removed over land surfaces. In particular, forests experience more deposition from MPC pollutants than other land ecosystems. In addition, it was found that the generic treatment of aerosols has no substantial influence on the major conclusions drawn in this thesis. Moreover, in the more comprehensive approach, it was found that emissions of black carbon, particulate organic matter, sulfur dioxide, and nitrogen oxides from MPCs influence the atmospheric burden of various aerosol types very differently, with impacts generally being larger for secondary species, sulfate and nitrate, than for primary species, black carbon and particulate organic matter. While the changes in the burdens of sulfate, black carbon, and particulate organic matter show an almost linear response for changes in the emission strength, the formation of nitrate was found to be contingent upon many more factors, e.g., the abundance of sulfuric acid, than only upon the strength of the nitrogen oxide emissions. The generic tracer experiments were further extended to conduct the first risk assessment to obtain the cumulative risk of contamination from multiple nuclear reactor accidents on the global scale. For this, many factors had to be taken into account: the probability of major accidents, the cumulative deposition field of the radionuclide cesium-137, and a threshold value that defines contamination. By collecting the necessary data and after accounting for uncertainties, it was found that the risk is highest in western Europe, the eastern US, and in Japan, where on average contamination by major accidents is expected about every 50 years.
Resumo:
Die Produktion von Hyperkernen wurde in peripheren Schwerionenreaktionen untersucht, bei denen eine Kohlenstofffolie mit $^6$Li Projektilen mit einer Strahlenergie von $2 A$~GeV bestrahlt wurde. Es konnten klare Signale f{"{u}}r $Lambda$, $^3_{Lambda}$H, $^4_{Lambda}$H in deren jeweiligen invarianten Massenverteilungen aus Mesonenzerfall beobachtet werden.rnrnIn dieser Arbeit wird eine unabh{"{a}}ngige Datenauswertung vorgelegt, die eine Verifizierung fr"{u}herer Ergebnisse der HypHI Kollaboration zum Ziel hatte. Zu diesem Zweck wurde eine neue Track-Rekonstruktion, basierend auf einem Kalman-Filter-Ansatz, und zwei unterschiedliche Algorithmen zur Rekonstruktion sekund"{a}rer Vertices entwickelt.rn%-Rekonstruktionsalgorithmen .rnrnDie invarianten Massen des $Lambda$-Hyperon und der $^3_{Lambda}$H- und $^4_{Lambda}$H-Hyperkerne wurden mit $1109.6 pm 0.4$, $2981.0 pm 0.3$ und $3898.1 pm 0.7$~MeV$/c^2$ und statistischen Signifikanzen von $9.8sigma$, $12.8sigma$ beziehungsweise $7.3sigma$ bestimmt. Die in dieser Arbeit erhaltenen Ergebnisse stimmen mit der fr{"{u}}heren Auswertung {"{u}}berein.rnrnDas Ausbeutenverh{"{a}}ltnis der beiden Hyperkerne wurde als $N(^3_{Lambda}$H)/$N(^4_{Lambda}$H)$ sim 3$ bestimmt. Das deutet darauf hin, dass der Produktionsmechanismus f{"{u}}r Hyperkerne in Schwerionen-induzierten Reaktionen im Projektil-Rapidit{"{a}}tsbereich nicht allein durch einen Koaleszenzmechanismus beschrieben werden kann, sondern dass auch sekund{"{a}}re Pion-/Kaon-induzierte Reaktionen und Fermi-Aufbruch involviert sind.rn