316 resultados para Pfadintegral, Moleküldynamik, Statistische Mechanik


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Hydrophobisierung anorganischer Nanopartikel für die Herstellung von Nanokompositen. Aufgrund der großen, reaktiven Oberfläche neigen Nanopartikel zur Aggregation, besonders in hydrophoben Medien. Literaturbekannte Verfahren der nachträglichen Modifizierung bereits existierender Partikeln führen nur teilweise zu gut redispergierbaren Partikeln in hydrophoben Medien. Da die Hülle erst nach der Partikelbildung erzeugt wird, läßt sich die Entstehung von Primäraggregaten nicht vermeiden. Die Neuheit der in dieser Arbeit angewandten Methode ist die Bildung der Partikelhülle vor der Entstehung der Partikel. Die Fällung der Nanopartikel innerhalb wäßriger Emulsionströpfchen schließt eine vorzeitige Aggregation der Partikel aus. Eine große Anzahl unterschiedlicher anorganischer Nanopartikel wurde hergestellt, deren Größe durch Variation der Syntheseparameter beeinflußt werden konnte. Ferner war es möglich, eine breite Variationsmöglichkeit der Art der Partikelhülle darzustellen, die sich als maßgeblich für die Kompatibilität zu einer Polymermatrix herausstellte. Die Kompatibilität zur Matrix ermöglichte eine einwandfreie Dispergierung von unterschiedlichen anorganischen Nanopartikeln im Kompositmaterial. Je nach Auswahl des anorganischen Materials können verschiedene Kompositeigenschaften, wie beispielsweise optische, elektrische, magnetische oder mechanische, beeinflußt werden. In dieser Arbeit wurde der Schwerpunkt auf eine erhöhte UV-Absorption gelegt, wobei sich auch eine verbesserte Schlagzähigkeit der Nanokomposite zeigte. Durch die hervorragende Dispergierung der Nanopartikel in der Matrix waren diese Nanokomposite hochtransparent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Membranen spielen eine essentielle Rolle bei vielen wichtigen zellulären Prozessen. Sie ermöglichen die Erzeugung von chemischen Gradienten zwischen dem Zellinneren und der Umgebung. Die Zellmembran übernimmt wesentliche Aufgaben bei der intra- und extrazellulären Signalweiterleitung und der Adhäsion an Oberflächen. Durch Prozesse wie Endozytose und Exozytose werden Stoffe in oder aus der Zelle transportiert, eingehüllt in Vesikel, welche aus der Zellmembran geformt werden. Zusätzlich bietet sie auch Schutz für das Zellinnere. Der Hauptbestandteil einer Zellmembran ist die Lipiddoppelschicht, eine zweidimensionale fluide Matrix mit einer heterogenen Zusammensetzung aus unterschiedlichen Lipiden. In dieser Matrix befinden sich weitere Bausteine, wie z.B. Proteine. An der Innenseite der Zelle ist die Membran über Ankerproteine an das Zytoskelett gekoppelt. Dieses Polymernetzwerk erhöht unter anderem die Stabilität, beeinflusst die Form der Zelle und übernimmt Funktionenrnbei der Zellbewegung. Zellmembranen sind keine homogenen Strukturen, je nach Funktion sind unterschiedliche Lipide und Proteine in mikrsokopischen Domänen angereichert.Um die grundlegenden mechanischen Eigenschaften der Zellmembran zu verstehen wurde im Rahmen dieser Arbeit das Modellsystem der porenüberspannenden Membranen verwendet.Die Entwicklung der porenüberspannenden Membranen ermöglicht die Untersuchung von mechanischen Eigenschaften von Membranen im mikro- bis nanoskopischen Bereich mit rasterkraftmikroskopischen Methoden. Hierbei bestimmen Porosität und Porengröße des Substrates die räumliche Auflösung, mit welcher die mechanischen Parameter untersucht werdenrnkönnen. Porenüberspannende Lipiddoppelschichten und Zellmembranen auf neuartigen porösen Siliziumsubstraten mit Porenradien von 225 nm bis 600 nm und Porositäten bis zu 30% wurden untersucht. Es wird ein Weg zu einer umfassenden theoretischen Modellierung der lokalen Indentationsexperimente und der Bestimmung der dominierenden energetischen Beiträge in der Mechanik von porenüberspannenden Membranen aufgezeigt. Porenüberspannende Membranen zeigen eine linear ansteigende Kraft mit zunehmender Indentationstiefe. Durch Untersuchung verschiedener Oberflächen, Porengrößen und Membranen unterschiedlicher Zusammensetzung war es für freistehende Lipiddoppelschichten möglich, den Einfluss der Oberflächeneigenschaften und Geometrie des Substrates, sowie der Membranphase und des Lösungsmittels auf die mechanischen Eigenschaften zu bestimmen. Es ist möglich, die experimentellen Daten mit einem theoretischen Modell zu beschreiben. Hierbei werden Parameter wie die laterale Spannung und das Biegemodul der Membran bestimmt. In Abhängigkeit der Substrateigenschaften wurden für freitragende Lipiddoppelschichten laterale Spannungen von 150 μN/m bis zu 31 mN/m gefunden für Biegemodulde zwischen 10^(−19) J bis 10^(−18) J. Durch Kraft-Indentations-Experimente an porenüberspannenden Zellmembranen wurde ein Vergleich zwischen dem Modell der freistehenden Lipiddoppelschichten und nativen Membranen herbeigeführt. Die lateralen Spannungen für native freitragende Membranen wurden zu 50 μN/m bestimmt. Weiterhin konnte der Einfluss des Zytoskeletts und der extrazellulä-rnren Matrix auf die mechanischen Eigenschaften bestimmt und innerhalb eines basolateralen Zellmembranfragments kartiert werden, wobei die Periodizität und der Porendurchmesser des Substrates das räumliche Auflösungsvermögen bestimmen. Durch Fixierung der freistehenden Zellmembran wurde das Biegemodul der Membran um bis zu einem Faktor 10 erhöht. Diese Arbeit zeigt wie lokal aufgelöste, mechanische Eigenschaften mittels des Modellsystems der porenüberspannenden Membranen gemessen und quantifiziert werden können. Weiterhin werden die dominierenden energetischen Einflüsse diskutiert, und eine Vergleichbarkeit zurnnatürlichen Membranen hergestellt.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, new promising proton conducting fuel cell membrane materials were characterized in terms of their structure and dynamic properties using solid-state nuclear magnetic resonance (NMR) spectroscopy and X-ray diffraction. Structurally different, phosphonic acid (PA) containing materials were systematically evaluated for possible high-temperature operation (e.g. at T>100°C). Notably, 1H, 2H and 31P magic angle spinning (MAS) NMR provided insight into local connectivities and dynamics of the hydrogen bonded network, while packing arrangements were identified by means of heteronuclear dipolar recoupling techniques.rnThe first part of this work introduced rather crystalline, low molecular weight ionomers for proton conducting membranes, where six different geometries such as line, triangle, screw, tetrahedron, square and hexagon, were investigated. The hexagon was identified as the most promising geometry with high-temperature bulk proton conductivities in the range of 10-3 Scm-1 at a relative humidity of 50%. However, 2H NMR and TGA-MS data suggest that the bulk proton transport is mainly due to the presence of crystal water. Single crystal X-ray data revealed that in the tetrahedron phosphonic acids form tetrameric clusters isolating the mobile protons while the phosphonic acids in the hexagon form zigzag-type pathways through the sample.rnThe second part of this work demonstrates how acid-base pairing and the choice of appropriate spacers may influence proton conduction. Different ratios of statistical copolymers of poly (vinylphosphonic acid) and poly (4-vinylpyridine) were measured to derive information about the local structure and chemical changes. Though anhydrous proton conductivities of all statistical copolymers are rather poor, the conductivity increases to 10-2 S cm-1 when exposing the sample to relative humidity of 80%. In contrast to PVPA, anhydride formation of phosphonic acids in the copolymer is not reversible even when exposing the sample to a relative humidity of 100%.rnIn addition, the influence of both spacers and degree of backbone crystallinity on bulk proton conductivity was investigated. Unlike in systems such as poly benzimidazole (PBI), spacers were inserted between the protogenic groups along the backbone. It was found that dilution of the protogenic groups decreases the conductivity, but compared to PVPA, similar apparent activation energies for local motions were obtained from both variable temperature 1H NMR and impedance spectroscopy data. These observations suggest the formation of phosphonic acid clusters with high degrees of local proton motion, where only a fraction of motions contribute to the observable bulk proton conductivity. Additionally, it was shown that gradual changes of the spacer length lead to different morphologies.rnIn summary, applying advanced solid-state NMR and X-ray analysis, structural and dynamic phenomena in proton conducting materials were identified on a molecular level. The results were discussed with respect to different proton conduction mechanisms and may contribute to a more rational design or improvement of proton conducting membranes.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das A4-Experiment bestimmt den Beitrag der Strangequarks zu den elektromagnetischen Formfaktoren des Nukleons durch Messung der Paritätsverletzung in der elastischen Elektron-Nukleon-Streuung. Diese Messungen werden mit dem spinpolarisierten Elektronenstrahl des Mainzer Mikrotrons (MAMI) bei Strahlenergien zwischen 315 und 1508 MeV ndurchgeführt. Die Bestimmung des Strahlpolarisationsgrades ist für die Analyse der Daten unerläßlich, um die physikalische Asymmetrie aus der gemessenen paritätsverletzenden Asymmetrie extrahieren zu können. Aus diesem Grund wird von der A4-Kollaboration ein neuartiges Compton-Laserrückstreupolarimeter entwickelt, das eine zerstörungsfreie Messung der Strahlpolarisation, parallel zum laufenden Paritätsexperiment erlaubt. Um den zuverlässigen Dauerbetrieb des Polarimeters zu ermöglichen, wurde das Polarimeter im Rahmen dieser Arbeit weiterentwickelt. Das Datenerfassungssystem für Photonen- und Elektronendetektor wurde neu aufgebaut und im Hinblick auf die Verarbeitung hoher Raten optimiert. Zum Nachweis der rückgestreuten Photonen wurde ein neuartiger Detektor (LYSO) in Betrieb genommen. Darüber hinaus wurden GEANT4-Simulationen der Detektoren durchgeführt und eine Analyseumgebung für die Extraktion von Comptonasymmetrien aus den Rückstreudaten entwickelt. Das Analyseverfahren nutzt die Möglichkeit, die rückgestreuten Photonen durch koinzidente Detektion der gestreuten Elektronen energiemarkiert nachzuweisen (Tagging). Durch die von der Energiemarkierung eingeführte differentielle Energieskala wird somit eine präzise Bestimmung der Analysierstärke möglich. In der vorliegenden Arbeit wurde die Analysierstärke des Polarimeters bestimmt, so daß nun das Produkt von Elektronen- und Laserstrahlpolarisation bei einem Strahlstrom von 20 muA, parallel zum laufenden Paritätsexperiment, mit einer statistischen Genauigkeit von 1% in 24 Stunden bei 855 MeV bzw. <1% in 12 Stunden bei 1508 MeV gemessen werden kann. In Kombination mit der Bestimmung der Laserpolarisation in einer parallelen Arbeit (Y. Imai) auf 1% kann die statistische Unsicherheit der Strahlpolarisation im A4-Experiment von zuvor 5% auf nun 1,5% bei 1508MeV verringert werden. Für die Daten zur Messung der paritätsverletzenden Elektronenstreuung bei einem Viererimpulsübertrag von $Q^2=0,6 (GeV/c)^2$ beträgt die Rohasymmetrie beim derzeitigen Stand der Analyse $A_{PV}^{Roh} = ( -20,0 pm 0,9_{stat} ) cdot 10^{-6}$. Für eine Strahlpolarisation von 80% erhält man einen Gesamtfehler von $1,68 cdot 10^{-6}$ für $Delta P_e/P_e = 5 %$. Als Ergebnis dieser Arbeit wird sich dieser Fehler durch Analyse der Daten des Compton-Laserrückstreupolarimeters um 29% auf $1,19 cdot 10^{-6}$ ($Delta P_e/P_e = 1,5 %$) verringern lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis, three nitroxide based ionic systems were used to investigate structure and dynamics of their respective solutions in mixed solvents by means of electron paramagnetic resonance (EPR) and electron nuclear double resonance (ENDOR) spectroscopy at X- and W-band (9.5 and 94.5 GHz, respectively). rnFirst, the solvation of the inorganic radical Fremy’s salt (K2ON(SO3)2) in isotope substituted binary solvent mixtures (methanol/water) was investigated by means of high-field (W-band) pulse ENDOR spectroscopy and molecular dynamics (MD) simulations. From the analysis of orientation-selective 1H and 2H ENDOR spectra the principal components of the hyperfine coupling (hfc) tensor for chemically different protons (alcoholic methyl vs. exchangeable protons) were obtained. The methyl protons of the organic solvent approach with a mean distance of 3.5 Å perpendicular to the approximate plane spanned by ON(S)2 of the probe molecule. Exchangeable protons were found to be distributed isotropically, approaching closest to Fremy’s salt from the hydrogen-bonded network around the sulfonate groups. The distribution of exchangeable and methyl protons as found in MD simulations is in full agreement with the ENDOR results. The solvation was found to be similar for the studied solvent ratios between 1:2.3 and 2.3:1 and dominated by an interplay of H-bond (electrostatic) interactions and steric considerations with the NO group merely involved into H-bonds.rnFurther, the conformation of spin labeled poly(diallyldimethylammonium chloride) (PDADMAC) solutions in aqueous alcohol (methanol, ethanol, n-propanol, ethylene glycol, glycerol) mixtures in dependence of divalent sodium sulfate was investigated with double electron-electron resonance (DEER) spectroscopy. The DEER data was analyzed using the worm-like chain model which suggests that in organic-water solvent mixtures the polymer backbones are preferentially solvated by the organic solvent. We found a less serve impact on conformational changes due to salt than usually predicted in polyelectrolyte theory which stresses the importance of a delicate balance of hydrophobic and electrostatic interactions, in particular in the presence of organic solvents.rnFinally, the structure and dynamics of miniemulsions and polymerdispersions prepared with anionic surfactants, that were partially replaced by a spin labeled fatty acid in presence and absence of a lanthanide beta-diketonate complex was characterized by CW EPR spectroscopy. Such miniemulsions form multilayers with the surfactant head group bound to the lanthanide ion. Beta-diketonates were formerly used as NMR shift reagents and nowadays find application as luminescent materials in OLEDs and LCDs and as contrast agent in MRT. The embedding of the complex into a polymer matrix results in an easy processable material. It was found that the structure formation takes place in miniemulsion and is preserved during polymerization. For surfactants with carboxyl-head group a higher order of the alkyl chains and less lateral diffusion is found than for sulfat-head groups, suggesting a more uniform and stronger coordination to the metal ion. The stability of these bilayers depends on the temperature and the used surfactant which should be considered for the used polymerization temperature if a maximum output of the structured regions is wished.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The beta-decay of free neutrons is a strongly over-determined process in the Standard Model (SM) of Particle Physics and is described by a multitude of observables. Some of those observables are sensitive to physics beyond the SM. For example, the correlation coefficients of the involved particles belong to them. The spectrometer aSPECT was designed to measure precisely the shape of the proton energy spectrum and to extract from it the electron anti-neutrino angular correlation coefficient "a". A first test period (2005/ 2006) showed the “proof-of-principles”. The limiting influence of uncontrollable background conditions in the spectrometer made it impossible to extract a reliable value for the coefficient "a" (publication: Baessler et al., 2008, Europhys. Journ. A, 38, p.17-26). A second measurement cycle (2007/ 2008) aimed to under-run the relative accuracy of previous experiments (Stratowa et al. (1978), Byrne et al. (2002)) da/a =5%. I performed the analysis of the data taken there which is the emphasis of this doctoral thesis. A central point are background studies. The systematic impact of background on a was reduced to da/a(syst.)=0.61 %. The statistical accuracy of the analyzed measurements is da/a(stat.)=1.4 %. Besides, saturation effects of the detector electronics were investigated which were initially observed. These turned out not to be correctable on a sufficient level. An applicable idea how to avoid the saturation effects will be discussed in the last chapter.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Analyse tandem-repetitiver DNA-Sequenzen hat einen festen Platz als genetisches Typisierungsverfahren in den Breichen der stammesgeschichtlichen Untersuchung, der Verwandtschaftsanalyse und vor allem in der forensischen Spurenkunde, bei der es durch den Einsatz der Multiplex-PCR-Analyse von Short Tandem Repeat-Systemen (STR) zu einem Durchbruch bei der Aufklärung und sicheren Zuordnung von biologischen Tatortspuren kam. Bei der Sequenzierung des humanen Genoms liegt ein besonderes Augenmerk auf den genetisch polymorphen Sequenzvariationen im Genom, den SNPs (single nucleotide polymorphisms). Zwei ihrer Eigenschaften – das häufige Vorkommen innerhalb des humanen Genoms und ihre vergleichbar geringe Mutationsrate – machen sie zu besonders gut geeigneten Werkzeugen sowohl für die Forensik als auch für die Populationsgenetik.rnZum Ziel des EU-Projekts „SNPforID“, aus welchem die vorliegende Arbeit entstanden ist, wurde die Etablierung neuer Methoden zur validen Typisierung von SNPs in Multiplexverfahren erklärt. Die Berücksichtigung der Sensitivität bei der Untersuchung von Spuren sowie die statistische Aussagekraft in der forensischen Analyse standen dabei im Vordergrund. Hierfür wurden 52 autosomale SNPs ausgewählt und auf ihre maximale Individualisierungsstärke hin untersucht. Die Untersuchungen der ersten 23 selektierten Marker stellen den ersten Teil der vorliegenden Arbeit dar. Sie umfassen die Etablierung des Multiplexverfahrens und der SNaPshot™-Typisierungsmethode sowie ihre statistische Auswertung. Die Ergebnisse dieser Untersuchung sind ein Teil der darauf folgenden, in enger Zusammenarbeit der Partnerlaboratorien durchgeführten Studie der 52-SNP-Multiplexmethode. rnEbenfalls im Rahmen des Projekts und als Hauptziel der Dissertation erfolgten Etablierung und Evaluierung des auf der Microarray-Technologie basierenden Verfahrens der Einzelbasenverlängerung auf Glasobjektträgern. Ausgehend von einer begrenzten DNA-Menge wurde hierbei die Möglichkeit der simultanen Hybridisierung einer möglichst hohen Anzahl von SNP-Systemen untersucht. Die Auswahl der hierbei eingesetzten SNP-Marker erfolgte auf der Basis der Vorarbeiten, die für die Etablierung des 52-SNP-Multiplexes erfolgreich durchgeführt worden waren. rnAus einer Vielzahl von Methoden zur Genotypisierung von biallelischen Markern hebt sich das Assay in seiner Parallelität und der Einfachheit des experimentellen Ansatzes durch eine erhebliche Zeit- und Kostenersparnis ab. In der vorliegenden Arbeit wurde das „array of arrays“-Prinzip eingesetzt, um zur gleichen Zeit unter einheitlichen Versuchsbedingungen zwölf DNA-Proben auf einem Glasobjektträger zu typisieren. Auf der Basis von insgesamt 1419 typisierten Allelen von 33 Markern konnte die Validierung mit einem Typisierungserfolg von 86,75% abgeschlossen werden. Dabei wurden zusätzlich eine Reihe von Randbedingungen in Bezug auf das Sonden- und Primerdesign, die Hybridisierungsbedingungen sowie physikalische Parameter der laserinduzierten Fluoreszenzmessung der Signale ausgetestet und optimiert. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nitrogen is an essential nutrient. It is for human, animal and plants a constituent element of proteins and nucleic acids. Although the majority of the Earth’s atmosphere consists of elemental nitrogen (N2, 78 %) only a few microorganisms can use it directly. To be useful for higher plants and animals elemental nitrogen must be converted to a reactive oxidized form. This conversion happens within the nitrogen cycle by free-living microorganisms, symbiotic living Rhizobium bacteria or by lightning. Humans are able to synthesize reactive nitrogen through the Haber-Bosch process since the beginning of the 20th century. As a result food security of the world population could be improved noticeably. On the other side the increased nitrogen input results in acidification and eutrophication of ecosystems and in loss of biodiversity. Negative health effects arose for humans such as fine particulate matter and summer smog. Furthermore, reactive nitrogen plays a decisive role at atmospheric chemistry and global cycles of pollutants and nutritive substances.rnNitrogen monoxide (NO) and nitrogen dioxide (NO2) belong to the reactive trace gases and are grouped under the generic term NOx. They are important components of atmospheric oxidative processes and influence the lifetime of various less reactive greenhouse gases. NO and NO2 are generated amongst others at combustion process by oxidation of atmospheric nitrogen as well as by biological processes within soil. In atmosphere NO is converted very quickly into NO2. NO2 is than oxidized to nitrate (NO3-) and to nitric acid (HNO3), which bounds to aerosol particles. The bounded nitrate is finally washed out from atmosphere by dry and wet deposition. Catalytic reactions of NOx are an important part of atmospheric chemistry forming or decomposing tropospheric ozone (O3). In atmosphere NO, NO2 and O3 are in photosta¬tionary equilibrium, therefore it is referred as NO-NO2-O3 triad. At regions with elevated NO concentrations reactions with air pollutions can form NO2, altering equilibrium of ozone formation.rnThe essential nutrient nitrogen is taken up by plants mainly by dissolved NO3- entering the roots. Atmospheric nitrogen is oxidized to NO3- within soil via bacteria by nitrogen fixation or ammonium formation and nitrification. Additionally atmospheric NO2 uptake occurs directly by stomata. Inside the apoplast NO2 is disproportionated to nitrate and nitrite (NO2-), which can enter the plant metabolic processes. The enzymes nitrate and nitrite reductase convert nitrate and nitrite to ammonium (NH4+). NO2 gas exchange is controlled by pressure gradients inside the leaves, the stomatal aperture and leaf resistances. Plant stomatal regulation is affected by climate factors like light intensity, temperature and water vapor pressure deficit. rnThis thesis wants to contribute to the comprehension of the effects of vegetation in the atmospheric NO2 cycle and to discuss the NO2 compensation point concentration (mcomp,NO2). Therefore, NO2 exchange between the atmosphere and spruce (Picea abies) on leaf level was detected by a dynamic plant chamber system under labo¬ratory and field conditions. Measurements took place during the EGER project (June-July 2008). Additionally NO2 data collected during the ECHO project (July 2003) on oak (Quercus robur) were analyzed. The used measuring system allowed simultaneously determina¬tion of NO, NO2, O3, CO2 and H2O exchange rates. Calculations of NO, NO2 and O3 fluxes based on generally small differences (∆mi) measured between inlet and outlet of the chamber. Consequently a high accuracy and specificity of the analyzer is necessary. To achieve these requirements a highly specific NO/NO2 analyzer was used and the whole measurement system was optimized to an enduring measurement precision.rnData analysis resulted in a significant mcomp,NO2 only if statistical significance of ∆mi was detected. Consequently, significance of ∆mi was used as a data quality criterion. Photo-chemical reactions of the NO-NO2-O3 triad in the dynamic plant chamber’s volume must be considered for the determination of NO, NO2, O3 exchange rates, other¬wise deposition velocity (vdep,NO2) and mcomp,NO2 will be overestimated. No significant mcomp,NO2 for spruce could be determined under laboratory conditions, but under field conditions mcomp,NO2 could be identified between 0.17 and 0.65 ppb and vdep,NO2 between 0.07 and 0.42 mm s-1. Analyzing field data of oak, no NO2 compensation point concentration could be determined, vdep,NO2 ranged between 0.6 and 2.71 mm s-1. There is increasing indication that forests are mainly a sink for NO2 and potential NO2 emissions are low. Only when assuming high NO soil emissions, more NO2 can be formed by reaction with O3 than plants are able to take up. Under these circumstance forests can be a source for NO2.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Untersuchung von dissipativen Quantensystemen erm¨oglicht es, Quantenph¨anomene auch auf makroskopischen L¨angenskalen zu beobachten. Das in dieser Dissertation gew¨ahlte mikroskopische Modell erlaubt es, den bisher nur ph¨anomenologisch zug¨anglichen Effekt der Quantendissipation mathematisch und physikalisch herzuleiten und zu untersuchen. Bei dem betrachteten mikroskopischen Modell handelt es sich um eine 1-dimensionale Kette von harmonischen Freiheitsgraden, die sowohl untereinander als auch an r anharmonische Freiheitsgrade gekoppelt sind. Die F¨alle einer, respektive zwei anharmonischer Bindungen werden in dieser Arbeit explizit betrachtet. Hierf¨ur wird eine analytische Trennung der harmonischen von den anharmonischen Freiheitsgraden auf zwei verschiedenen Wegen durchgef¨uhrt. Das anharmonische Potential wird als symmetrisches Doppelmuldenpotential gew¨ahlt, welches mit Hilfe der Wick Rotation die Berechnung der ¨Uberg¨ange zwischen beiden Minima erlaubt. Das Eliminieren der harmonischen Freiheitsgrade erfolgt mit Hilfe des wohlbekannten Feynman-Vernon Pfadintegral-Formalismus [21]. In dieser Arbeit wird zuerst die Positionsabh¨angigkeit einer anharmonischen Bindung im Tunnelverhalten untersucht. F¨ur den Fall einer fernab von den R¨andern lokalisierten anharmonischen Bindung wird ein Ohmsches dissipatives Tunneln gefunden, was bei der Temperatur T = 0 zu einem Phasen¨ubergang in Abh¨angigkeit einer kritischen Kopplungskonstanten Ccrit f¨uhrt. Dieser Phasen¨ubergang wurde bereits in rein ph¨anomenologisches Modellen mit Ohmscher Dissipation durch das Abbilden des Systems auf das Ising-Modell [26] erkl¨art. Wenn die anharmonische Bindung jedoch an einem der R¨ander der makroskopisch grossen Kette liegt, tritt nach einer vom Abstand der beiden anharmonischen Bindungen abh¨angigen Zeit tD ein ¨Ubergang von Ohmscher zu super- Ohmscher Dissipation auf, welche im Kern KM(τ ) klar sichtbar ist. F¨ur zwei anharmonische Bindungen spielt deren indirekteWechselwirkung eine entscheidende Rolle. Es wird gezeigt, dass der Abstand D beider Bindungen und die Wahl des Anfangs- und Endzustandes die Dissipation bestimmt. Unter der Annahme, dass beide anharmonischen Bindung gleichzeitig tunneln, wird eine Tunnelwahrscheinlichkeit p(t) analog zu [14], jedoch f¨ur zwei anharmonische Bindungen, berechnet. Als Resultat erhalten wir entweder Ohmsche Dissipation f¨ur den Fall, dass beide anharmonischen Bindungen ihre Gesamtl¨ange ¨andern, oder super-Ohmsche Dissipation, wenn beide anharmonischen Bindungen durch das Tunneln ihre Gesamtl¨ange nicht ¨andern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Precision measurements of observables in neutron beta decay address important open questions of particle physics and cosmology. In this thesis, a measurement of the proton recoil spectrum with the spectrometer aSPECT is described. From this spectrum the antineutrino-electron angular correlation coefficient a can be derived. In our first beam time at the FRM II in Munich, background instabilities prevented us from presenting a new value for a. In the latest beam time at the ILL in Grenoble, the background has been reduced sufficiently. As a result of the data analysis, we identified and fixed a problem in the detector electronics which caused a significant systematic error. The aim of the latest beam time was a new value for a with an error well below the present literature value of 4%. A statistical accuracy of about 1.4% was reached, but we could only set upper limits on the correction of the problem in the detector electronics, too high to determine a meaningful result. This thesis focused on the investigation of different systematic effects. With the knowledge of the systematics gained in this thesis, we are able to improve aSPECT to perform a 1% measurement of a in a further beam time.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zweidimensionale Flüssigkeiten harter Scheiben sind in der Regel einfach zu simulieren, jedoch überraschend schwer theoretisch zu beschreiben. Trotz ihrer hohen Relevanz bleiben die meisten theoretischen Ansätze qualitativ. Hier wird eine Dichtefunktionaltheorie (DFT) vorgestellt, die erstmalig die Struktur solcher Flüssigkeiten bei hohen Dichten korrekt beschreibt und den Ansatz des Gefrierübergangs abbildet.rnEs wird gezeigt, dass der Ansatz der Fundamentalmaßtheorie zu einem solchen Funktional führt. Dabei werden sowohl Dichteverteilungen um ein Testteilchen als auch Zweiteilchen-Korrelationsfunktionen untersucht.rnGrafikkarten bieten sehr hohe Recheneffizienz und ihr Einsatz in der Wissenschaft nimmt stetig zu. In dieser Arbeit werden die Vor- und Nachteile der Grafikkarte für wissenschaftliche Berechnungen erörtert und es wird gezeigt, dass die Berechnung der DFT auf Grafikkarten effizient ausgeführt werden kann. Es wird ein Programm entwickelt, dass dies umsetzt. Dabei wird gezeigt, dass die Ergebnisse einfacher (bekannter) Funktionale mit denen von CPU-Berechnungen übereinstimmen, so dass durch die Nutzung der Grafikkarte keine systematischen Fehler zu erwarten sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Untersuchungen zur autoimmunen Genese der thrombotisch thrombozytopenischen Purpura. rnEinführung: Die idiopathische thrombotisch thrombozytopenische Purpura (TTP) ist eine lebensbedrohliche Mikroangiopathie und wird durch ein Autoantikörper-induziertes Defizit der ADAMTS13-Protease ausgelöst. Eine Assoziation zwischen Krankheitsprädisposition und Vorliegen bestimmter humaner Leukozytenantigene (HLA) wird vermutet. Untersuchungen zu diesem Zusammenhang stellen einen Teil dieser Arbeit dar. rnAutoimmunkrankheiten tendieren zum gemeinsamen Auftreten innerhalb eines Individuums. Im zweiten Teil dieser Arbeit wird untersucht, ob eine solche Kookkurrenz verschiedener Autoimmunkrankheiten auch bei Patienten mit idiopathischer TTP beobachtet werden kann.rnMethodik: Zur Untersuchung der ersten Fragestellung werden die HLA-Klasse I und II-Merkmale von 54 deutschen TTP-Patienten bestimmt. Alle Patienten weisen Autoantikörper gegen ADAMTS13 und eine Protease-Aktivität <5% vor. Die Blutproben werden mittels Sequence Specific Primer-Polymerase Chain Reaction (PCR) und Sequence Specific Oligonucleotid-PCR auf HLA-DRB1, -DRB3-5 und –DQB1 untersucht. Als Referenz dienen die Werte deutscher Knochenmark- und Blutspender, erhalten über www.allelefrequencies.net. Die statistische Auswertung erfolgt mittels zweiseitigem Binomialtest und die resultierenden p-Werte werden nach Benjamini-Hochberg korrigiert.rnZur Beantwortung der zweiten Fragestellung werden 76 deutsche TTP-Patienten anhand eines standardisierten Fragebogens nach Begleiterkrankungen befragt. Als Vergleichswerte dient die Prävalenz der jeweiligen Erkrankung in der Allgemeinbevölkerung. Die statistische Auswertung erfolgt mittels zweiseitigem Binomialtest. Da die p-Werte nicht korrigiert werden, sind die Ergebnisse nur deskriptiv zu verstehen.rnErgebnis: Der Vergleich der HLA-Frequenzen ergibt ein signifikant gehäuftes Vorkommen von HLA-DQB1*02:02 (p<0,001) und -DRB1*11 (p=0,003) innerhalb des Patientenkollektivs. 20% (DQB1*02:02) bzw. 48,1% (DRB1*11) der TTP-Patienten sind im Gegensatz zu nur 1,2% (DQB1*02:02) bzw. 23,5% (DRB1*11) innerhalb der Vergleichsgruppe für das jeweilige HLA-Merkmal positiv.rnDie Befragung der TTP-Patienten bezüglich weiterer Erkrankungen ergab im Vergleich mit der Allgemeinbevölkerung fünf auffällig häufig im Patientenkollektiv vorkommende Autoimmunkrankheiten: Hashimoto Thyreoiditis (23,5% in der Patientengruppe zu 0,7% in der Allgemeinbevölkerung; p<0,001), systemischer Lupus erythematodes (6,5% der Patienten im Gegensatz zu 0,025% in der Allgemeinbevölkerung, p<0,001), Immunthrombozytopenie (6,3% der Patienten zu 0,02% in der Allgemeinbevölkerung; p<0,001), Psoriasis (9,4% der Patienten zu 2,5% in der Allgemeinbevölkerung; p=0,005) und glutensensitive Enteropathie (3,1% der Patienten zu 0,2% in der Allgemeinbevölkerung; p=0,007). rnSchlussfolgerung: Das vermehrte Vorkommen bestimmter HLA-Merkmale im Patientenkollektiv spricht für eine prädisponierende Wirkung dieser Antigene im Krankheitsgeschehen. Eine mögliche HLA-vermittelte Assoziation zwischen TTP und den genannten Autoimmunkrankheiten wird vermutet, kann jedoch nicht in allen Fällen die beobachtete Kookkurrenz ausreichend erklären. Insgesamt bestätigt die vorliegende Arbeit die Assoziation verschiedener Autoimmunkrankheiten untereinander und spricht für eine genetische Prädisposition zur Ausbildung autoimmuner Störungen. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wurden Simulation von Flüssigkeiten auf molekularer Ebene durchgeführt, wobei unterschiedliche Multi-Skalen Techniken verwendet wurden. Diese erlauben eine effektive Beschreibung der Flüssigkeit, die weniger Rechenzeit im Computer benötigt und somit Phänomene auf längeren Zeit- und Längenskalen beschreiben kann.rnrnEin wesentlicher Aspekt ist dabei ein vereinfachtes (“coarse-grained”) Modell, welches in einem systematischen Verfahren aus Simulationen des detaillierten Modells gewonnen wird. Dabei werden ausgewählte Eigenschaften des detaillierten Modells (z.B. Paar-Korrelationsfunktion, Druck, etc) reproduziert.rnrnEs wurden Algorithmen untersucht, die eine gleichzeitige Kopplung von detaillierten und vereinfachten Modell erlauben (“Adaptive Resolution Scheme”, AdResS). Dabei wird das detaillierte Modell in einem vordefinierten Teilvolumen der Flüssigkeit (z.B. nahe einer Oberfläche) verwendet, während der Rest mithilfe des vereinfachten Modells beschrieben wird.rnrnHierzu wurde eine Methode (“Thermodynamische Kraft”) entwickelt um die Kopplung auch dann zu ermöglichen, wenn die Modelle in verschiedenen thermodynamischen Zuständen befinden. Zudem wurde ein neuartiger Algorithmus der Kopplung beschrieben (H-AdResS) der die Kopplung mittels einer Hamilton-Funktion beschreibt. In diesem Algorithmus ist eine zur Thermodynamischen Kraft analoge Korrektur mit weniger Rechenaufwand möglich.rnrnAls Anwendung dieser grundlegenden Techniken wurden Pfadintegral Molekulardynamik (MD) Simulationen von Wasser untersucht. Mithilfe dieser Methode ist es möglich, quantenmechanische Effekte der Kerne (Delokalisation, Nullpunktsenergie) in die Simulation einzubeziehen. Hierbei wurde zuerst eine Multi-Skalen Technik (“Force-matching”) verwendet um eine effektive Wechselwirkung aus einer detaillierten Simulation auf Basis der Dichtefunktionaltheorie zu extrahieren. Die Pfadintegral MD Simulation verbessert die Beschreibung der intra-molekularen Struktur im Vergleich mit experimentellen Daten. Das Modell eignet sich auch zur gleichzeitigen Kopplung in einer Simulation, wobei ein Wassermolekül (beschrieben durch 48 Punktteilchen im Pfadintegral-MD Modell) mit einem vereinfachten Modell (ein Punktteilchen) gekoppelt wird. Auf diese Weise konnte eine Wasser-Vakuum Grenzfläche simuliert werden, wobei nur die Oberfläche im Pfadintegral Modell und der Rest im vereinfachten Modell beschrieben wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Kapillarkraft entsteht durch die Bildung eines Meniskus zwischen zwei Festkörpen. In dieser Doktorarbeit wurden die Auswirkungen von elastischer Verformung und Flϋssigkeitadsorption auf die Kapillarkraft sowohl theoretisch als auch experimentell untersucht. Unter Verwendung eines Rasterkraftmikroskops wurde die Kapillarkraft zwischen eines Siliziumoxid Kolloids von 2 µm Radius und eine weiche Oberfläche wie n.a. Polydimethylsiloxan oder Polyisopren, unter normalen Umgebungsbedingungen sowie in variierende Ethanoldampfdrϋcken gemessen. Diese Ergebnisse wurden mit den Kapillarkräften verglichen, die auf einem harten Substrat (Silizium-Wafer) unter denselben Bedingungen gemessen wurden. Wir beobachteten eine monotone Abnahme der Kapillarkraft mit zunehmendem Ethanoldampfdruck (P) fϋr P/Psat > 0,2, wobei Psat der Sättigungsdampfdruck ist.rnUm die experimentellen Ergebnisse zu erklären, wurde ein zuvor entwickeltes analytisches Modell (Soft Matter 2010, 6, 3930) erweitert, um die Ethanoladsorption zu berϋcksichtigen. Dieses neue analytische Modell zeigte zwei verschiedene Abhängigkeiten der Kapillarkraft von P/Psat auf harten und weichen Oberflächen. Fϋr die harte Oberfläche des Siliziumwafers wird die Abhängigkeit der Kapillarkraft vom Dampfdruck vom Verhältnis der Dicke der adsorbierten Ethanolschicht zum Meniskusradius bestimmt. Auf weichen Polymeroberflächen hingegen hängt die Kapillarkraft von der Oberflächenverformung und des Laplace-Drucks innerhalb des Meniskus ab. Eine Abnahme der Kapillarkraft mit zunehmendem Ethanoldampfdruck hat demnach eine Abnahme des Laplace-Drucks mit zunehmendem Meniskusradius zur folge. rnDie analytischen Berechnungen, fϋr die eine Hertzsche Kontakt-deformation angenommen wurde, wurden mit Finit Element Methode Simulationen verglichen, welche die reale Deformation des elastischen Substrats in der Nähe des Meniskuses explizit berϋcksichtigen. Diese zusätzliche nach oben gerichtete oberflächenverformung im Bereich des Meniskus fϋhrt zu einer weiteren Erhöhung der Kapillarkraft, insbesondere fϋr weiche Oberflächen mit Elastizitätsmodulen < 100 MPa.rn