6 resultados para E27 - Forecasting and Simulation

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this thesis different approaches for the modeling and simulation of the blood protein fibrinogen are presented. The approaches are meant to systematically connect the multiple time and length scales involved in the dynamics of fibrinogen in solution and at inorganic surfaces. The first part of the thesis will cover simulations of fibrinogen on an all atom level. Simulations of the fibrinogen protomer and dimer are performed in explicit solvent to characterize the dynamics of fibrinogen in solution. These simulations reveal an unexpectedly large and fast bending motion that is facilitated by molecular hinges located in the coiled-coil region of fibrinogen. This behavior is characterized by a bending and a dihedral angle and the distribution of these angles is measured. As a consequence of the atomistic detail of the simulations it is possible to illuminate small scale behavior in the binding pockets of fibrinogen that hints at a previously unknown allosteric effect. In a second step atomistic simulations of the fibrinogen protomer are performed at graphite and mica surfaces to investigate initial adsorption stages. These simulations highlight the different adsorption mechanisms at the hydrophobic graphite surface and the charged, hydrophilic mica surface. It is found that the initial adsorption happens in a preferred orientation on mica. Many effects of practical interest involve aggregates of many fibrinogen molecules. To investigate such systems, time and length scales need to be simulated that are not attainable in atomistic simulations. It is therefore necessary to develop lower resolution models of fibrinogen. This is done in the second part of the thesis. First a systematically coarse grained model is derived and parametrized based on the atomistic simulations of the first part. In this model the fibrinogen molecule is represented by 45 beads instead of nearly 31,000 atoms. The intra-molecular interactions of the beads are modeled as a heterogeneous elastic network while inter-molecular interactions are assumed to be a combination of electrostatic and van der Waals interaction. A method is presented that determines the charges assigned to beads by matching the electrostatic potential in the atomistic simulation. Lastly a phenomenological model is developed that represents fibrinogen by five beads connected by rigid rods with two hinges. This model only captures the large scale dynamics in the atomistic simulations but can shed light on experimental observations of fibrinogen conformations at inorganic surfaces.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Beständig werden Spurenstoffe in die Atmosphäre emittiert, die ihren Ursprung in biogenen oder anthropogenen Quellen haben. Daß es dennoch im allgemeinen nicht zu einer Anreicherung bis hin zu toxischen Konzentrationen kommt, liegt an dem Vermögen der Atmosphäre sich durch Oxidationsprozesse selbst zu reinigen. Eine wichtige Aufgabe kommt dabei dem Hydroxylradikal OH zu, welches tagsüber die Oxidationskapazität der Atmosphäre bestimmt. Hierbei spielen die tropischen Regionen mit einer der höchsten OH-Produktionsraten eine zentrale Rolle. Gleichzeitig sind die tropischen Regenwälder eine bedeutende globale Quelle für Kohlenwasserstoffe, die durch Reaktion mit OH-Radikalen dessen Konzentration und damit die Oxidationskapazität der Atmosphäre herabsetzen. Während der GABRIEL-Meßkampagne 2005 im äquatorialen Südamerika wurde der Einfluß der Regenwaldemissionen auf das HOx-Budget (HOx = OH+HO2) untersucht. Zu diesem Zweck wurde das Radikalmeßinstrument HORUS entwickelt. Im Rahmen dieser Arbeit wurden unterschiedliche Komponenten des Gerätes optimiert, der Meßaufbau ins Flugzeug integriert und Methoden zur Kalibrierung entwickelt. Bei der internationalen Vergleichskampagne HOxComp2005 zeigte HORUS seine Eignung zur Messung von troposphärischen OH- und HO2-Radikalen.rnrnDie durchgeführten HOx-Messungen während der GABRIEL-Meßkampagne sind die ersten ihrer Art, die über einem tropischen Regenwald stattgefunden haben. Im Gegensatz zu den Vorhersagen globaler Modelle wurden unerwartet hohe OH- und HO2-Konzentrationen in der planetaren Grenzschicht des tropischen Regenwalds beobachtet. Der Vergleich der berechneten OH-Produktions- und Verlustraten, die aus dem umfangreichen Datensatz von GABRIEL ermittelt wurden, zeigte, daß hierbei eine wichtige OH-Quelle unberücksichtigt blieb. Mit Hilfe des Boxmodells MECCA, in welchem die gemessenen Daten als Randbedingungen in die Simulationen eingingen, wurden die modellierten OH- und HO2- Konzentrationen im Gleichgewichtszustand den beobachteten Konzentrationen gegenübergestellt. Luftmassen der freien Troposphäre und der maritimen Grenzschicht zeigten eine gute Übereinstimmung zwischen Messung und Modell. Über dem tropischen Regenwald jedoch wurden die beobachteten HOx-Konzentrationen in der planetaren Grenzschicht durch das Modell, vor allem am Nachmittag, signifikant unterschätzt. Dabei lag die Diskrepanz zwischen den beobachteten und simulierten Konzentrationen bei einem mittleren Wert von OHobs/OHmod = 12.2 ± 3.5 und HO2obs/HO2mod = 4.1 ± 1.4. Die Abweichung zwischen Messung und Modell korrelieren hierbei mit der Isoprenkonzentration. Während für niedrige Isoprenmischungsverhältnisse, wie sie über dem Ozean oder in Höhen > 3 km vorherrschten, die Beobachtungen mit den Simulationen innerhalb eines Faktors 1.6±0.7 übereinstimmten, nahm die Unterschätzung durch das Modell für steigende Isoprenmischungsverhältnisse > 200 pptV über dem tropischen Regenwald zu.rnrnDer kondensierte chemische Mechanismus von MECCA wurde mit der ausführlichen Isoprenchemie des ”Master Chemical Mechanism“ überprüft, welches vergleichbare HOx-Konzentrationen lieferte. OH-Simulationen, durchgeführt mit der gemessenen HO2-Konzentration als zusätzliche Randbedingung, zeigten, daß die Konversion zwischen HO2 und OH innerhalb des Modells nicht ausreichend ist. Durch Vernachlässigung der gesamten Isoprenchemie konnte dagegen eine Übereinstimmung zwischen Modell und Messung erreicht werden. Eine OH-Quelle in der gleichen Größenordnung wie die OH-Senke durch Isopren, ist somit zur Beschreibung der beobachteten OH-Konzentration notwendig. Reaktionsmechanismen, die innerhalb der Isoprenchemie die gleiche Anzahl an OH-Radikalen erzeugen wie sie verbrauchen, könnten eine mögliche Ursache sein. Unterschiedliche zusätzliche Reaktionen wurden in die Isoprenabbaumechanismen des Modells implementiert, die zur Erhöhung der OH-Quellstärke führen sollten. Diese bewirkten eine Zunahme der simulierten HO2-Konzentrationen um einen maximalen Faktor von 5 für OH und 2 für HO2. Es wird eine OH-Zyklierungswahrscheinlichkeit r von bis zu 94% gefordert, wie sie für die GABRIEL-Messungen erreicht wurde. Die geringe OH-Zyklierungswahrscheinlichkeit von 38% des Modells zeigte, daß wichtige Zyklierungsvorgänge im chemischen Mechanismus bislang nicht berücksichtigt werden. Zusätzliche Zyklierungsreaktionen innerhalb des Isoprenmechanismus, die auch unter niedrigen NO-Konzentrationen zur Rückbildung von OHRadikalen führen, könnten eine Erklärung für die über dem Regenwald beobachteten hohen OH-Konzentration liefern.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Hypernuclear physics is currently attracting renewed interest, due tornthe important role of hypernuclei spectroscopy rn(hyperon-hyperon and hyperon-nucleon interactions) rnas a unique toolrnto describe the baryon-baryon interactions in a unified way and to rnunderstand the origin of their short-range.rnrnHypernuclear research will be one of the main topics addressed by the {sc PANDA} experimentrnat the planned Facility for Antiproton and Ion Research {sc FAIR}.rnThanks to the use of stored $overline{p}$ beams, copiousrnproduction of double $Lambda$ hypernuclei is expected at thern{sc PANDA} experiment, which will enable high precision $gamma$rnspectroscopy of such nuclei for the first time.rnAt {sc PANDA} excited states of $Xi^-$ hypernuclei will be usedrnas a basis for the formation of double $Lambda$ hypernuclei.rnFor their detection, a devoted hypernuclear detector setup is planned. This setup consists ofrna primary nuclear target for the production of $Xi^{-}+overline{Xi}$ pairs, a secondary active targetrnfor the hypernuclei formation and the identification of associated decay products and a germanium array detector to perform $gamma$ spectroscopy.rnrnIn the present work, the feasibility of performing high precision $gamma$rnspectroscopy of double $Lambda$ hypernuclei at the {sc PANDA} experiment has been studiedrnby means of a Monte Carlo simulation. For this issue, the designing and simulation of the devoted detector setup as well as of the mechanism to produce double $Lambda$ hypernuclei have been optimizedrntogether with the performance of the whole system. rnIn addition, the production yields of double hypernuclei in excitedrnparticle stable states have been evaluated within a statistical decay model.rnrnA strategy for the unique assignment of various newly observed $gamma$-transitions rnto specific double hypernuclei has been successfully implemented by combining the predicted energy spectra rnof each target with the measurement of two pion momenta from the subsequent weak decays of a double hypernucleus.rn% Indeed, based on these Monte Carlo simulation, the analysis of the statistical decay of $^{13}_{Lambda{}Lambda}$B has been performed. rn% As result, three $gamma$-transitions associated to the double hypernuclei $^{11}_{Lambda{}Lambda}$Bern% and to the single hyperfragments $^{4}_{Lambda}$H and $^{9}_{Lambda}$Be, have been well identified.rnrnFor the background handling a method based on time measurement has also been implemented.rnHowever, the percentage of tagged events related to the production of $Xi^{-}+overline{Xi}$ pairs, variesrnbetween 20% and 30% of the total number of produced events of this type. As a consequence, further considerations have to be made to increase the tagging efficiency by a factor of 2.rnrnThe contribution of the background reactions to the radiation damage on the germanium detectorsrnhas also been studied within the simulation. Additionally, a test to check the degradation of the energyrnresolution of the germanium detectors in the presence of a magnetic field has also been performed.rnNo significant degradation of the energy resolution or in the electronics was observed. A correlationrnbetween rise time and the pulse shape has been used to correct the measured energy. rnrnBased on the present results, one can say that the performance of $gamma$ spectroscopy of double $Lambda$ hypernuclei at the {sc PANDA} experiment seems feasible.rnA further improvement of the statistics is needed for the background rejection studies. Moreover, a more realistic layout of the hypernuclear detectors has been suggested using the results of these studies to accomplish a better balance between the physical and the technical requirements.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Viele Tiere wie etwa Geckos oder Laubfrösche können mittels ihrer Haftscheiben an Oberflächen kleben. Diese Haftscheiben ermöglichen es den Tieren, sich während ihrerrnFortbewegung an Oberflächen anzuheften und wieder zu lösen unabhängig von denrnvorherrschenden Umweltbedingungen. Frösche besitzen mikro- und nanostrukturierternsowie charakteristisch geformte Haftscheiben an Finger- und Zehenenden. Ihre besonderernevolutionäre Errungenschaft, sich stark und zugleich reversibel in sowohl trockenen alsrnauch feuchten Umgebungen anzuhaften, hat die Wissenschaft zur Nachahmung und Untersuchungrndieser Strukturen inspiriert. Zum besseren Verständnis der Mechanismen vonrnAnhaftung und Loslösung bei Laubfröschen wurden weiche, elastische und mikrostrukturierternOberflächen hergestellt, indem PDMS (Polydimethylsiloxan) auf einer Siliziummaskernmit Hexagonstruktur aufgetragen und vernetzt wurde. Dadurch wurden Anordnungenrnvon hexagonalen Mikrosäulen mit spezifischen geometrischen Eigenschaften undrnunterschiedlichen Kontaktgeometrien (normale, flache Form, T-Form und konkave Formrnder Säulenenden) erhalten. Um den Einfluss der van-der-Waals, hydrodynamischen,rnKapillar-und Adhäsionskräfte zu verstehen, wurden verschiedene experimentelle Ansätzernverfolgt: Die auf eine einzelne Säule wirkenden Adhäsionskräfte wurden mittelsrnRasterkraftmikroskopie gemessen. Dazu wurden speziell hergestellte kolloidale Sensorenrnverwendet. Diese Experimente wurden sowohl mit als auch ohne Flüssigkeitsfilm auf derrnSäule durchgeführt. Die Ergebnisse zeigten den Beitrag von Kapillarkraft und direktenrnKontaktkräften zur Adhäsionskraft bei Vorliegen eines Flüssigkeitsfilms. Die Adhäsionrnfiel umso größer aus, je weniger Flüssigkeit zwischen Sensor und Säule vorhanden war.rnIm Falle einer trockenen Adhäsion zeigte die Säule mit T-Form die höchste Adhäsion. Darndie Haftscheiben der Laubfrösche weich sind, können sie dynamisch ihre Form ändern,rnwas zu einer Änderung der hydrodynamischen Kraft zwischen Scheibe und Oberflächernführt. Der Einfluss der Oberflächenverformbarkeit auf die hydrodynamische Kraft wurderndaher am Modellsystem einer Kugel untersucht, welche sich einer weichen und ebenenrnOberfläche annähert. Dieses System wurde sowohl theoretisch über die Simulation finiterrnElemente als auch experimentell über die Messung mit kolloidalen Sonden untersucht.rnSowohl experimentelle Ergebnisse als auch die Simulationen ergaben eine Abnahme derrnhydrodynamischen Kraft bei Annäherung des kolloidalen Sensors an eine weiche undrnelastische Oberfläche. Beim Entfernen der Sensors von der Oberfläche verstärkte sichrndie hydrodynamische Anziehungskraft. Die Kraft, die zur Trennung eines Partikels von einer Oberfläche in Flüssigkeit notwendig ist, ist für weiche und elastischen Oberflächenrngrößer als für harte Oberflächen. In Bezug zur Bioadhäsion bei Laubfröschen konnternfestgestellt somit festgestellt werden, dass sich der hydrodynamische Anteil zur feuchtenrnBioadhäsion aufgrund der weichen Oberfläche erhöht. Weiterhin wurde der Einflussrndes Aspektverhältnisses der Säulen auf die Reibungskraft mittels eines kolloidalen Sensorsrnuntersucht. Gestreckte Säulen zeigten dabei eine höhere Reibung im Vergleich zu.rnSäulen mit einem gestreckten Hexagon als Querschnitt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the year 2013, the detection of a diffuse astrophysical neutrino flux with the IceCube neutrino telescope – constructed at the geographic South Pole – was announced by the IceCube collaboration. However, the origin of these neutrinos is still unknown as no sources have been identified to this day. Promising neutrino source candidates are blazars, which are a subclass of active galactic nuclei with radio jets pointing towards the Earth. In this thesis, the neutrino flux from blazars is tested with a maximum likelihood stacking approach, analyzing the combined emission from uniform groups of objects. The stacking enhances the sensitivity w.r.t. the still unsuccessful single source searches. The analysis utilizes four years of IceCube data including one year from the completed detector. As all results presented in this work are compatible with background, upper limits on the neutrino flux are given. It is shown that, under certain conditions, some hadronic blazar models can be challenged or even rejected. Moreover, the sensitivity of this analysis – and any other future IceCube point source search – was enhanced by the development of a new angular reconstruction method. It is based on a detailed simulation of the photon propagation in the Antarctic ice. The median resolution for muon tracks, induced by high-energy neutrinos, is improved for all neutrino energies above IceCube’s lower threshold at 0.1TeV. By reprocessing the detector data and simulation from the year 2010, it is shown that the new method improves IceCube’s discovery potential by 20% to 30% depending on the declination.