998 resultados para Meteorologie, Dynamik der Atmosphäre, Baroklinität, Feuchte Prozesse, Zyklogenese, Tiefdruckgebiet


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Thesis (doctoral)--Christian-Albrechts-Universität zu Kiel, 1901.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ein System in einem metastabilen Zustand muss eine bestimmte Barriere in derrnfreien Energie überwinden um einen Tropfen der stabilen Phase zu formen.rnHerkömmliche Untersuchungen nehmen hierbei kugelförmige Tropfen an. Inrnanisotropen Systemen (wie z.B. Kristallen) ist diese Annahme aber nicht ange-rnbracht. Bei tiefen Temperaturen wirkt sich die Anisotropie des Systems starkrnauf die freie Energie ihrer Oberfläche aus. Diese Wirkung wird oberhalb derrnAufrauungstemperatur T R schwächer. Das Ising-Modell ist ein einfaches Mo-rndell, welches eine solche Anisotropie aufweist. Wir führen großangelegte Sim-rnulationen durch, um die Effekte, die mit einer endlichen Simulationsbox ein-rnhergehen, sowie statistische Ungenauigkeiten möglichst klein zu halten. DasrnAusmaß der Simulationen die benötigt werden um sinnvolle Ergebnisse zu pro-rnduzieren, erfordert die Entwicklung eines skalierbaren Simulationsprogrammsrnfür das Ising-Modell, welcher auf verschiedenen parallelen Architekturen (z.B.rnGrafikkarten) verwendet werden kann. Plattformunabhängigkeit wird durch ab-rnstrakte Schnittstellen erreicht, welche plattformspezifische Implementierungs-rndetails verstecken. Wir benutzen eine Systemgeometrie die es erlaubt eine Ober-rnfläche mit einem variablen Winkel zur Kristallebene zu untersuchen. Die Ober-rnfläche ist in Kontakt mit einer harten Wand, wobei der Kontaktwinkel Θ durchrnein Oberflächenfeld eingestellt werden kann. Wir leiten eine Differenzialglei-rnchung ab, welche das Verhalten der freien Energie der Oberfläche in einemrnanisotropen System beschreibt. Kombiniert mit thermodynamischer Integrationrnkann die Gleichung benutzt werden, um die anisotrope Oberflächenspannungrnüber einen großen Winkelbereich zu integrieren. Vergleiche mit früheren Mes-rnsungen in anderen Geometrien und anderen Methoden zeigen hohe Überein-rnstimung und Genauigkeit, welche vor allem durch die im Vergleich zu früherenrnMessungen wesentlich größeren Simulationsdomänen erreicht wird. Die Temper-rnaturabhängigkeit der Oberflächensteifheit κ wird oberhalb von T R durch diernKrümmung der freien Energie der Oberfläche für kleine Winkel gemessen. DiesernMessung lässt sich mit Simulationsergebnissen in der Literatur vergleichen undrnhat bessere Übereinstimmung mit theoretischen Voraussagen über das Skalen-rnverhalten von κ. Darüber hinaus entwickeln wir ein Tieftemperatur-Modell fürrndas Verhalten um Θ = 90 Grad weit unterhalb von T R. Der Winkel bleibt bis zu einemrnkritischen Feld H C quasi null; oberhalb des kritischen Feldes steigt der Winkelrnrapide an. H C wird mit der freien Energie einer Stufe in Verbindung gebracht,rnwas es ermöglicht, das kritische Verhalten dieser Größe zu analysieren. Die harternWand muss in die Analyse einbezogen werden. Durch den Vergleich freier En-rnergien bei geschickt gewählten Systemgrößen ist es möglich, den Beitrag derrnKontaktlinie zur freien Energie in Abhängigkeit von Θ zu messen. Diese Anal-rnyse wird bei verschiedenen Temperaturen durchgeführt. Im letzten Kapitel wirdrneine 2D Fluiddynamik Simulation für Grafikkarten parallelisiert, welche u. a.rnbenutzt werden kann um die Dynamik der Atmosphäre zu simulieren. Wir im-rnplementieren einen parallelen Evolution Galerkin Operator und erreichen

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Diese Arbeit beschreibt die Entwicklung des flugzeuggetragenen Atmosphärischen Ionisations-Massenspektrometers AIMS-H2O zur Messung von Wasserdampf in der oberen Troposphäre und unteren Stratosphäre (UTLS) und erste Flugzeugmessungen mit dem Instrument. Wasserdampf beeinflusst das Klima in der UTLS aufgrund seiner Strahlungseigenschaften und agiert als wichtiger Parameter bei der Bildung von Zirruswolken und Kondensstreifen. Deshalb sind genaue Wasserdampfmessungen für das Verständnis vieler atmosphärischer Prozesse unerlässlich. Instrumentenvergleiche wie sie im SPARC Report No. 2 und dem Bericht der AUQAVIT Kampagne zusammengefasst sind, haben gezeigt, dass große Abweichungen zwischen einzelnen Methoden und Instrumenten bestehen. Diese Unsicherheiten limitieren das Verständnis des Einflusses von Wasserdampf auf die Dynamik und die Strahlungseigenschaften in der UTLS. Die in dieser Arbeit vorgestellte Entwicklung einer neuen Messmethode für Wasserdampf mit dem Massenspektrometer AIMS-H2O ist deshalb auf die genaue Messung niedriger Wasserdampfkonzentrationen in der UTLS fokussiert. Mit AIMS H2O wird Umgebungsluft in einer neu entwickelten Gasentladungsquelle ionisiert. Durch eine Reihe von Ionen-Molekül-Reaktionen entstehen H3O+(H2O) und H3O+(H2O)2 Ionen. Diese Ionen werden genutzt, um die Wasserdampfkonzentration in der Atmosphäre zu bestimmen. Um die erforderliche hohe Genauigkeit zu erzielen, wird AIMS H2O im Flug kalibriert. In dem zu diesem Zweck aufgebauten Kalibrationsmodul wird die katalytische Reaktion von Wasserstoff und Sauerstoff auf einer Platinoberfläche genutzt, um definierte Wasserdampfkonzentrationen für die Kalibration im Flug zu erzeugen. Bei ersten Messungen auf der Falcon während der Kampagne CONCERT 2011 konnte dabei eine Genauigkeit von 8 bis 15% für die Messung der Wasserdampfkonzentration in einem Messbereich von 0,5 bis 250 ppmv erreicht werden. Die Messfrequenz betrug 4 Hz, was einer räumlichen Auflösung von etwa 50 m entspricht. Der Vergleich der Messung des Massenspektrometers mit dem Laserhygrometer Waran zeigt eine sehr gute Übereinstimmung im Rahmen der Unsicherheiten. Anhand zweier Fallstudien werden die Messungen von AIMS H2O während CONCERT 2011 detailliert analysiert. In der ersten Studie werden zwei Flüge in eine stratosphärische Intrusion über Nordeuropa untersucht. In dieser Situation wurde stratosphärische Luft bis hinunter auf 6 km Höhe transportiert und war dadurch mit der Falcon erreichbar. Es konnte gezeigt werden, dass AIMS-H2O sehr gut für die genaue Messung niedriger Wasserdampfkonzentrationen, in diesem Fall bis etwa 3,5 ppmv, geeignet ist. Der Vergleich der Messung mit Analysen des ECMWF Integrated Forecast Systems zeigt eine gute Übereinstimmung der gemessenen Wasserdampfstrukturen mit der dynamischen Tropopause. Unterschiede tauchen dagegen beim Vergleich der Wasserdampfkonzentrationen in der unteren Stratosphäre auf. Hier prognostiziert das Modell deutlich höhere Feuchten. Die zweite Fallstudie beschäftigt sich mit der Verteilung der relativen Feuchte in jungen Kondensstreifen im Vergleich zu ihrer direkten Umgebung. Dabei wurde für drei Messsequenzen im Abgasstrahl von Flugzeugen beobachtet, dass die relative Feuchte innerhalb des Kondensstreifens im Vergleich zur Umgebung sowohl bei unter- als auch übersättigten Umgebungsbedingungen in Richtung Sättigung verschoben ist. Die hohe Anzahl an Eispartikeln und die damit verbundene große Eisoberfläche in jungen Kondensstreifen führt also zu einer schnellen Relaxation von Gasphase und Eis in Richtung Gleichgewicht. In der Zukunft soll AIMS-H2O auch auf HALO für die genaue Messung von Wasserdampf bei ML-CIRRUS und weiteren Kampagnen eingesetzt werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Stickstoffmonoxid (NO) ist als reaktives Spurengas eine wichtige Komponente atmosphärenchemischer Prozesse und hat somit einen bedeutenden Einfluss auf die Zusammensetzung der Atmosphäre. Eine Hauptquelle des Spurengases stellen bodenmikrobiologische Prozesse dar, deren regionaler und globaler Anteil weiterhin mit größeren Unsicherheiten geschätzt wird. Ursache für die schwere Abschätzbarkeit der NO-Freisetzung aus Böden ist die hohe räumliche Variabilität der steuernden Faktoren. Als einer der wichtigsten Faktoren, die die Freisetzung von NO aus Böden regeln, gilt der Bodenwassergehalt. Ziel der vorliegenden Arbeit ist es, den Zusammenhang zwischen NO-Freisetzung, Bodenwassergehalt, den Bodeneigenschaften und den Standortbedingungen zu untersuchen und diesen möglichst zu quantifizieren. Dazu sind Bodenproben unterschiedlicher Landnutzungen in einem kleineren Wassereinzugsgebiet im Rheingau im Labor, unter kontrollierten Bedingungen, untersucht. Der charakteristische Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung, die sogenannte Bodenfeuchtekurve, kann demnach weitestgehend auf die gemessenen Bodenmerkmale der untersuchten Proben zurückgeführt werden. Anhand der Bodenmerkmale kann die Bodenfeuchtekurve zufriedenstellend vorhergesagt werden. Dabei zeigt vor allem der Humusgehalt der Böden einen dominierenden Einfluss. Er ist die Variable, die die Unterschiede der Böden beim Zusammenhang zwischen Bodenfeuchte und NO-Freisetzung am besten und hinreichend erklären kann. Zur Konstruktion der Bodenfeuchtekurve müssen die optimale Bodenfeuchte und die dabei herrschende Freisetzung, sowie die obere Bodenfeuchte, bei der keine NO-Freisetzung mehr stattfindet, bekannt sein. Diese charakteristischen Punkte lassen sich durch lineare Regressionsmodelle gut aus den Bodeneigenschaften ableiten. Auf räumlicher Ebene werden die Bodeneigenschaften durch die standörtlichen Bedingungen geprägt, die wiederum Ausdruck der landschaftlichen Ausstattung sind. In der Kulturlandschaft kann der Mensch aufgrund seiner Landnutzungsansprüche als der dominierende Faktor angesehen werden. Die Landnutzung orientiert sich an den landschaftlichen Bedingungen und bestimmt in hohem Maße wichtige Bodeneigenschaften, die zu den erklärenden Merkmalen bei der Beziehung zwischen Bodenwassergehalt und NO-Freisetzung gehören. Die in erster Linie wirtschaftlich orientierten Kartenwerke Bodenschätzung, Weinbergsbodenkartierung und forstliche Standortkartierung sind dementsprechend geeignete Grundlagen, um eine Regionalisierung der Landschaft in - bezüglich der NO-Freisetzung - weitgehend homogene Flächen durchführen zu können. Eine hierauf beruhende Regionalisierung ist dazu geeignet, die räumliche Variabilität der NO-Freisetzung in räumlich sinnvoller Auflösung besser abschätzen zu können.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Zusammenfassung - Der sekundäre Botenstoff zyklisches Adenosinmonophosphat (cAMP) reguliert viele fundamentale zelluläre Prozesse wie Zellproliferation, Differenzierung, Energiemetabolismus und Genexpression. In eukaryotischen Zellen vermittelt die cAMP-abhängige Proteinkinase (PKA) die meisten biologischen Funktionen von cAMP. Die PKA besteht aus jeweils zwei regulatorischen (R) und katalytischen (C) Untereinheiten, die zusammen einen inaktiven Holoenzymkomplex bilden, der durch cAMP aktiviert wird. In dieser Arbeit wurde die Bindung von cAMP und cAMP-Analoga an die R Untereinheit der PKA unter funktionellen und mechanistischen Aspekten untersucht. Eine neue, auf Fluoreszenzpolarisation basierende Methode wurde entwickelt, um die Affinität von cAMP-Analoga in einem homogenen Ansatz schnell, reproduzierbar und nicht radioaktiv zu quantifizieren. Zur detaillierten Untersuchung des Bindungsmechanismus von cAMP und cAMP Analoga (Agonisten und Antagonisten) wurden thermodynamische Studien im direkten Vergleich mittels isothermaler Titrationskalorimetrie und kinetischen Analysen (Oberflächenplasmonresonanz, SPR) durchgeführt, wodurch thermodynamische Signaturen für das Bindungsverhalten der Nukleotide an die R Untereinheit der PKA erhalten werden konnten. Durch Interaktionsstudien an mutagenisierten R Untereinheiten wurde der intramolekulare Aktivierungsmechanismus der PKA in Bezug auf cAMP-Bindung, Holoenzymkomplex-Formierung und -Aktivierung untersucht. Die dabei erhaltenen Ergebnisse wurden mit zwei Modellen der cAMP-induzierten Konformationsänderung verglichen, und ein Aktivierungsmechanismus postuliert, der auf konservierten hydrophoben Aminosäuren basiert. Für in vivo Untersuchungen wurden zusammen mit Kooperationspartnern membranpermeable, fluoreszierende cAMP Analoga entwickelt, die Einblicke in die Dynamik der cAMP-Verteilung in Zellen erlauben. Neu entwickelte, Festphasen gebundene cAMP-Analoga (Agonisten und Antagonisten) wurden in einem (sub)proteomischen Ansatz dazu genutzt, natürliche Komplexe der R Untereinheit und des PKA-Holoenzyms aus Zelllysaten zu isolieren und zu identifizieren. Diese Untersuchungen fließen letztlich in einem systembiologischen Ansatz zusammen, der neue Einblicke in die vielschichtigen cAMP gesteuerten Netzwerke und Regulationsprozesse erlaubt.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die cAMP-abhängige Proteinkinase ist an der Regulation grundlegender zellulärer Prozesse, wie Entwicklung und Differenzierung, sowie Stoffwechselprozessen, beteiligt. Das Holoenzym bestehend aus einem Dimer regulatorischer (R) und zwei katalytischer C (C) Untereinheiten wird durch den sekundären Botenstoff cAMP reguliert. Die molekulare Grundlage der Holoenzymdynamik, sowie die räumliche und zeitliche Koordination der Holoenzyme in der cAMP-vermittelten Signaltransduktion sind zentrale Themen der aktuellen Forschung. Die Dynamik wird in erster Linie durch die cAMP-Konzentration, die Isoenzymzusammensetzung und die Verfügbarkeit von Kinasesubstraten bestimmt. Klassischerweise wurde die Holoenzymdynamik auf Grundlage der Phosphotransferaseaktivität der C Untereinheit untersucht. Der Effekt von Substrat auf die apparenten Aktivierungskonstanten (cAMP) konnte aber so nicht bestimmt werden, sodass in dieser Arbeit eine alternative Methode entwickelt werden musste, die unabhängig von der Messung der Substratphosphorylierung ist. Eine Validierung dieser SPR-basierten Methode erfolgte mit Typ-I Holoenzym, wobei eine leichtere Aktivierung in Gegenwart von Substrat bestätigt werden konnte. Überraschenderweise wurde mit dieser Methode der umgekehrte Effekt von Substratpeptid auf die Aktivierung des Typ-II Holoenzyms gemessen, wobei mit steigender Substratkonzentration größere apparente Aktivierungskonstanten bestimmt wurden. Durch gerichtete Mutationen der P0-Stelle in der Autoinhibitionsdomäne konnte diese Position als eine Hauptdeterminante für die Dynamik der Holoenzyme identifiziert werden. Im Allgemeinen führen Pseudosubstratinhibitoren (RI, RIIS99A) in Abhängigkeit von der Substratkonzentration zu einer Verkleinerung, und Substratinhibitoren (RII, RIA99S) zu einer Vergrößerung der apparenten Aktivierungskonstanten der entsprechenden Holoenzyme. Bei Untersuchungen zum Phosphostatus der hRII im Holoenzymkomplex sowie während der Dissoziation in Gegenwart oder Abwesenheit von Substrat, konnte mit Serin 58 eine zweite Autophosphorylierungsstelle in der Linkerregion identifiziert werden, die ein deutlich langsameres Laufverhalten in der SDS PAGE hervorruft. Allerdings konnte dieser Stelle keine Funktion im Bezug auf die Interaktion mit der katalytischen Untereinheit sowie ausgewählten AKAPs zugesprochen werden. In dieser Arbeit konnte ein gegensätzlicher Mechanismus zur Feinregulation der Dynamik des Typ-I und –II Holoenzyms durch Substrat gezeigt und die molekulare Grundlage aufgeklärt werden. Diese bisher nicht beschriebene Autophosphorylierungsstelle könnte eine wichtige Rolle in der Konformationskontrolle des N-Terminus spielen, oder als Plattform zur Wechselwirkung mit bisher unbekannten Interaktionspartnern der hRII dienen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Carbonsäuren entstehen bei der Reaktion von Alkenen mit den drei wichtigsten atmosphärischen Oxidantien OH, NO3 und O3 vor allem bei der Ozonolyse. Insbesondere die Schwerflüchtigkeit der Dicarbonsäuren führte zu der Annahme, dass sie in der Atmosphäre auch eine organische Nukleation initiieren. Die Arbeit widmet sich der systematischen Untersuchung der Mechanismen in der Ozonolyse, die zur Säurebildung führen, in einem statischen Versuchsreaktor. Um chemischen Vorgänge auf möglichst wenige Reaktionswege einzuschränken, wurden neben kleinen Alkenen der Isoprenchemie schwerpunktmäßig symmetrische unsubstituierte lineare und zyklische Modellverbindungen des Typs R-CH2-CH=CH-CH2-R untersucht. Zum parallelen Nachweis der teilweise dicht beieinander eluierenden Ionen wurden ein zweidimensionales Chromatographieverfahren entwickelt und bedarfsorientiert eine Modifikation des Analysesystems vorgenommen. Zur Beobachtung des Konzentrations-verlaufes wurde ein kontinuierliches Sammelverfahren mit einer Zeitauflösung im Bereich von 2-10 min verwandt. Die Verteilung der Ionen auf Gasphase und Aerosolphase ließ sich durch den Einsatz eines Systems aus Gasphasendenuder und kontinuierlichem Übersättigungsimpaktor für die Partikelphase analysieren. Die Ergebnisse der Untersuchungen führten zum Vorschlag neuer Mechanismen. Ein Criegee Intermediat des Typs RC(O)CHOO* tendiert zu einem Bruch der C-C Bindung zwischen Carbonyloxid und Carbonylgruppe. Über den Hydroperoxidkanal der Ozonolyse entsteht aus einem Criegee Intermediat mit n C-Atomen vom Typ R-CH2-CHOO* in der Gasphase oder nach Hydrolyse nicht nur eine Cn-Säure R-CH2-COOH mit ca. 2-5% Ausbeute, sondern auch eine C(n-1)-Säure R-COOH mit ca. 5-10% Ausbeute, sowie Ameisensäure in Ausbeuten von 5-10%. Für die Bildung der C(n-1)-Säuren wird die Enol-Variante des Hydroperoxidkanals vorgeschlagen. Cn-Säuren werden wahrscheinlich auf mehreren Reaktionswegen parallel gebildet. Es wurden Abhängigkeiten der Ausbeute von Eduktkonzentration, Molekülgröße und Feuchte ermittelt und in primäre und sekundäre Bildungsprozesse unterschieden. Die Ergebnisse dieser Arbeit lassen vermuten, dass Dicarbonsäuren nicht als primäre Verursacher der Nukleation angesehen werden können. Keine Einzelspezies unter den Ozonolyseprodukten kann in allen Fällen die beobachtete Partikelneubildung erklären. Vielmehr muß eine Hydroperoxi-Folgechemie angenommen werden, die in chemischen wie physikalischen Sekundärprozessen zu größeren Molekülen und kleineren Clustern führt, die als Nukleationskeime dienen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Proxy data are essential for the investigation of climate variability on time scales larger than the historical meteorological observation period. The potential value of a proxy depends on our ability to understand and quantify the physical processes that relate the corresponding climate parameter and the signal in the proxy archive. These processes can be explored under present-day conditions. In this thesis, both statistical and physical models are applied for their analysis, focusing on two specific types of proxies, lake sediment data and stable water isotopes.rnIn the first part of this work, the basis is established for statistically calibrating new proxies from lake sediments in western Germany. A comprehensive meteorological and hydrological data set is compiled and statistically analyzed. In this way, meteorological times series are identified that can be applied for the calibration of various climate proxies. A particular focus is laid on the investigation of extreme weather events, which have rarely been the objective of paleoclimate reconstructions so far. Subsequently, a concrete example of a proxy calibration is presented. Maxima in the quartz grain concentration from a lake sediment core are compared to recent windstorms. The latter are identified from the meteorological data with the help of a newly developed windstorm index, combining local measurements and reanalysis data. The statistical significance of the correlation between extreme windstorms and signals in the sediment is verified with the help of a Monte Carlo method. This correlation is fundamental for employing lake sediment data as a new proxy to reconstruct windstorm records of the geological past.rnThe second part of this thesis deals with the analysis and simulation of stable water isotopes in atmospheric vapor on daily time scales. In this way, a better understanding of the physical processes determining these isotope ratios can be obtained, which is an important prerequisite for the interpretation of isotope data from ice cores and the reconstruction of past temperature. In particular, the focus here is on the deuterium excess and its relation to the environmental conditions during evaporation of water from the ocean. As a basis for the diagnostic analysis and for evaluating the simulations, isotope measurements from Rehovot (Israel) are used, provided by the Weizmann Institute of Science. First, a Lagrangian moisture source diagnostic is employed in order to establish quantitative linkages between the measurements and the evaporation conditions of the vapor (and thus to calibrate the isotope signal). A strong negative correlation between relative humidity in the source regions and measured deuterium excess is found. On the contrary, sea surface temperature in the evaporation regions does not correlate well with deuterium excess. Although requiring confirmation by isotope data from different regions and longer time scales, this weak correlation might be of major importance for the reconstruction of moisture source temperatures from ice core data. Second, the Lagrangian source diagnostic is combined with a Craig-Gordon fractionation parameterization for the identified evaporation events in order to simulate the isotope ratios at Rehovot. In this way, the Craig-Gordon model can be directly evaluated with atmospheric isotope data, and better constraints for uncertain model parameters can be obtained. A comparison of the simulated deuterium excess with the measurements reveals that a much better agreement can be achieved using a wind speed independent formulation of the non-equilibrium fractionation factor instead of the classical parameterization introduced by Merlivat and Jouzel, which is widely applied in isotope GCMs. Finally, the first steps of the implementation of water isotope physics in the limited-area COSMO model are described, and an approach is outlined that allows to compare simulated isotope ratios to measurements in an event-based manner by using a water tagging technique. The good agreement between model results from several case studies and measurements at Rehovot demonstrates the applicability of the approach. Because the model can be run with high, potentially cloud-resolving spatial resolution, and because it contains sophisticated parameterizations of many atmospheric processes, a complete implementation of isotope physics will allow detailed, process-oriented studies of the complex variability of stable isotopes in atmospheric waters in future research.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In Niedersachsen setzt das Ministerium für Wissenschaft und Kultur seit 2007 ein Hochschulkennzahlensystem ein, um einen Teil des Grundhaushalts wettbewerblich an die Hochschulen zu verteilen. Über die Mittelvergabe hinaus ist ein Monitoringsystem integriert, mit dem die Entwicklung der Hochschulen beurteilt werden kann. Zur differenzierten Beurteilung werden monetäre und nichtmonetäre Hochschuldaten zu Kennzahlen verdichtet. Die Kennzahlen befinden sich jedoch auf einer zu hohen Aggregationsebene für ein hochschulinternes Controlling an der Fachhochschule Hannover. Daher dienen Berichtssysteme mit Standardberichten der Information über hochschulweite Prozesse und Ressourcen, um im zunehmenden Wettbewerb der Fachhochschulen fundierte Entscheidungen treffen zu können. Beispielhaft werden Standardberichte zu erbrachten Lehrleistungen als erste Komponente des nichtmonetären Controllings in einem Berichtssystem konzipiert. Methodisch basiert die Konzeption auf einer Informationsbedarfsanalyse mit induktiven und deduktiven Verfahren. Das Vorgehen lässt sich grundsätzlich auf weitere nichtmonetäre Leistungen (z. B. der Forschung) übertragen und in die konzipierte Struktur integrieren.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

(1) Neuropeptid Y (NPY), einer der häufigsten peptidergen Neurotransmitter im zentralen und peripheren Nervensystem der Säuger, ist an der Steuerung zahlreicher physiologischer Prozesse beteiligt. Auch Amphibien weisen eine verstärkte NPY-Immunreaktivität im Zentralnervensystem auf. Im Hinblick auf bereits gewonnene Erkenntnisse sollte in der vorliegenden Arbeit eine Modulierbarkeit retino-tectaler Aktivität durch Neuropeptid Y an der chinesischen Rotbauchunke (Bombina orientalis) überprüft und erstmals mit Hilfe der 14[C]-2-Desoxiglukose-Methode (14C-2DG) (Sokoloff et al. 1977) quantitativ analysiert werden. Als Vergleichstier diente die Agakröte (Bufo marinus). Zur Darstellung eines möglichen Effektes auf das Tectum opticum wurde NPY lokal auf die tectale Oberfläche visuell stimulierter Rotbauchunken appliziert. Mit Hilfe der 14C-2DG-Methode und den daraus autoradiographisch ermittelten Daten konnten die zerebralen Aktivitäten visualisiert, quantitativ ausgewertet und miteinander verglichen werden. In einer weiteren Versuchsreihe wurde hinterfragt, welche inhibitorische Wirkung NPY entwickeln kann, wenn zuvor der retinale Input pharmakologisch durch systemische Gabe von Apomorphin (APO) signifikant erhöht wurde. (2) Die 14C-2DG-Methode erlaubt einen Blick in die funktionale Aktivität des Gehirns und ermöglicht es, regional ablaufende physiologische und biochemische Energiestoffwechselprozesse innerhalb des Gehirns quantitativ zu erfassen. Mit Hilfe der 14C-2DG-Methode werden die neuromodulatorischen Wirkungen von NPY kartiert und analysiert. (3) Versuchstiergruppe 1 – Bombina orientalis – unbehandelt Zur Beurteilung pharmakologischer Effekte durch NPY bzw. APO auf den Hirnmetabolismus war es zunächst erforderlich, die Gehirnaktivitäten pharmakologisch unbeeinflusster Tiere nach visueller Reizgabe zu untersuchen. Im Bereich des medialen Mesencephalon wurden die tectalen 14C-2DG-Konzentrationen über zehn Messreihen pro Einzeltier sowohl an der rechten als auch an der linken tectalen Hälfte auf Höhe des ventrolateralen Tectum opticum ermittelt. Beim rechts-links Vergleich zeigen sich gleich verteilte Strahlungsintensitäten. Basierend auf dieser Aussage konnte NPY unilateral auf die tectale Oberfläche aufgebracht und auf seine Wirkung geprüft werden. (4) Versuchstiergruppe 2 – Bombina orientalis – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche des Versuchstieres bewirkt, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Besonders in den oberen Schichten des Tectum opticum (Layer 9) zeigt die 14C-2DG-Methode qualitativ und quantitativ auswertbare Aktivitätsminderungen an. (5) Verhalten unter NPY: Durchschnittlich nach 10 min Versuchsdauer zeigt Bombina orientalis eine deutliche Abnahme in der Beutefangaktivität, die sich gegen Ende der Versuchszeit noch weiter reduziert. (6) Versuchstiergruppe 3 – Bombina orientalis – APO-Applikation Systemisch verabreichtes APO führt bei Bombina orientalis zu einer Verstärkung des retinalen Ausganges in die retino-tectalen Projektionsfelder. Die neuronalen Aktivitäten im Tectum opticum erhöhen sich unter dem Einfluss von APO im Durchschnitt um 40% im Vergleich zu APO-unbehandelten Tieren. (7) Verhalten unter APO: Bombina orientalis zeigt nach systemischer Applikation von APO keine verstärkten stereotypen Schnappreaktionen. Die Tiere reagieren ausschließlich mit Akinese, d.h. einem Ausfall gerichteter Lokomotionen und Orientierungsbewegungen. (8) Versuchstiergruppe 4 – Bombina orientalis – APO/NPY-Applikation Die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. Eindeutig niedrigere 14C-2DG-Aufnahmen sind in den oberen Schichten des Tectum opticum messbar, was die starke Wirkung von NPY quantitativ belegt. (9) Versuchstiergruppe 2 – Bufo marinus – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche von Bufo marinus zeigt ebenfalls, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Bufo marinus zeigt aber aufgrund erweiterter Versuchsbedingungen (On-Off-Beleuchtungswechsel) anders verteilte Strahlungsintensitäten über dem Tectum-Querschnitt als Bombina orientalis. Stärkere [14C]-Akkumulationen zeigen sich in den tieferen zentralen Schichten des Tectum opticum. (10) Versuchstiergruppe 4 – Bufo marinus – APO/NPY-Applikation Auch die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum von Bufo marinus werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. (11) Die Ergebnisse der vorliegenden Arbeit leisten einen Beitrag zum Einfluss von NPY auf den retino-tectalen Informationstransfer bei Anuren im Sinne einer praetecto-tectalen inhibitorischen Modulation. Im Einklang mit früheren neuroanatomischen, immuncytochemischen und elektro-physiologischen Befunden liefern diese Ergebnisse erstmals ein biochemisches Korrelat auf der Basis des tectalen Energiestoffwechsels. (12) Es ist hervorzuheben, dass NPY-vermittelte inhibitorische Modulationen visuellen Informationstransfers in der vorliegenden Arbeit an Bombina orientalis nachgewiesen wurden, die phylogenetisch zu den ältesten Anuren (Anamnioten) gehört. Vergleichbares ist an verschiedenen Amnioten – einschließlich Primaten – beschrieben worden, was darauf hinweist, dass solche NPY-vermittelten Prozesse sich innerhalb der Tetrapoden relativ früh herausgebildet haben und in der Evolution konserviert worden sind.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die Gabe von organischem Dünger beeinflusst die Menge und die Zusammensetzung der organischen Substanz im landwirtschaftlich genutzten Boden. Dies wirkt sich auch auf den Umfang der mikrobiellen Biomasse im Boden und ihrer Gemeinschaftsstruktur aus. Diese Arbeit beschäftigte sich mit der Untersuchung von mineralischer und organischer Düngung auf die der mikrobiellen Gemeinschaft im Oberboden, Unterboden und unter subtropischen Bedingungen. Der Fokus der Arbeit lag zum einen in der Bestimmung der physiologischen Substratnutzungsdiversität der mikrobiellen Gemeinschaft, zum anderen in der Untersuchung der mikrobiellen Biomasse und deren Residuen nach organischer Düngung. Es konnte in der vorliegenden Arbeit gezeigt werden, dass das Substratnutzungsmuster der mikrobiellen Gemeinschaft sich signifikant zwischen langfristiger Rottemistdüngung und mineralischer Düngung unterscheidet. Diese Trennung wurde hauptsächlich durch die erhöhte Mineralisation von Kohlenhydraten und Aminosäuren gesteuert. Auch wurden der Boden pH-Wert und der Gehalt an organischer Substanz im Boden als Hauptmechanismen für die Unterscheidung der Düngevarianten identifiziert. Wenn auch die multi-SIR Methode keine Effekte von biodynamischen Präparaten auf die Funktion der mikrobiellen Gemeinschaft zeigen konnte, so war eine Trennung zwischen den Düngeintensitäten bei Rottemistdüngung mit biodynamischen Präparaten und mineralischer Düngung möglich. In Bezug dazu war die multi-SIR Methode empfindlicher, als die Bestimmung der mikrobiellen Biomasse oder des organischen Kohlenstoffs im Boden. Ergänzend dazu wurde der Substratnutzungsdiversitätsindex nach langjähriger mineralischer Düngung gegenüber der Rottemistdüngung verringert. Dies könnte auf eine Verminderung der Bodenfruchtbarkeit hindeuten. Auch wurde untersucht, inwieweit die Düngung mit Rottemist die Speicherung des organischen Materials (SOC und N) im Unterboden, einem weltweit bedeutenden C-Speicher, beeinflusst. Ein steigendes C/N-Verhältnis ging einher mit einer Verringerung der mikrobiellen Residualmasse am gesamten organischen Kohlenstoff mit der Tiefe. Langfristige organische Düngung führte zu einer Erhöhung des Verhältnisses pilzlicher zu bakterieller Residuen im Oberboden und steigerte den Gehalt an bakteriellen Residuen im Unterboden gegenüber mineralischer Düngung. Da keine Steigerung des gesamten organischen Kohlenstoffs im Unterboden vorliegt, kann eine Erhöhung des mikrobiellen Umsatzes im Unterboden bei organischer Düngung vermutet werden. Daneben sank das Verhältnis der pilzlichen zu bakteriellen Residuen von 2,6 im Oberboden auf 2,1 im Unterboden. Weitere Untersuchungen sind hier noch nötig, um die Rolle von mikrobiellen Residuen im Unterboden zu zeigen. Des Weiteren wurden die Auswirkungen von mit Aktivkohle und Tanninen angereichertem Ziegenkot auf die mikrobielle Biomasse, ihre Residuen und des organischem Kohlenstoff im Boden untersucht. Die Applikation der Aktivkohle sowie der Tannine erfolgte als Futterzusatz und direkt auf dem Feld. Nach zweijähriger Versuchsdauer unter subtropischen Bedingungen stieg die mikrobielle Biomasse im Boden nach organischer Düngung am stärksten an, gefolgt von den mikrobiellen Residuen und dem organischen Kohlenstoff. Der Anteil des Ergosterols an der gesamten mikrobiellen Biomasse deutete darauf hin, dass der Boden durch einen hohen Gehalt an saprotrophischen Pilzen gekennzeichnet war. Eine Dominanz der bakteriellen Residualmasse lässt einen schnellen Abbau der pilzlichen Residuen vermuten. Auch hatte die Aktivkohle einen positiven Einfluss auf die organische Bodensubstanz und die Zugabe von Tanninen erhöhte den extrahierbaren Stickstoff im Boden. Doch gab es keine Effekte durch die unterschiedlichen Applikationsmethoden auf dem Versuchsfeld. Es wurde gezeigt, dass die organische Düngung sich positiv auf die Bodenqualität auswirkt. Nicht nur das physiologische Profil der mikrobiellen Gemeinschaft wird verändert, sondern auch die mikrobiellen Residuen im gesamten Bodenprofil (0 – 100 cm) werden durch organische Düngung im Vergleich zur mineralischen Düngung erhöht. Die Rolle der mikrobiellen Biomasse und ihrer Residuen als Anzeiger für die Veränderungen in der mikrobiellen Gemeinschaftsstruktur wurde in der vorliegenden Arbeit dargestellt. Dies zeigt einmal mehr, dass diese als Indikator für Veränderungen in der mikrobiellen Gemeinschaftsstruktur herangezogen werden können. Speziell in Nutzungssystemen mit einem schnellen Umsatz der organischen Substanz, wie unter ariden subtropischen Bedingungen, bildet die Bestimmung der mikrobiellen Biomasse und ihrer Residuen eine Möglichkeit, die Dynamik der mikrobiellen Biomasse und der organischen Substanz durch Düngung zu dokumentieren.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Ziel dieser Arbeit ist es, die Methode der theologischen Gespräche mit Schülern auch außerhalb einer künstlich geschaffenen Unterrichtssituation anzuwenden und im besten Fall in das normale Unterrichtsgeschehen einfließen zu lassen. Dies soll dazu führen, dass diese Methode ihren experimentellen Charakter ein Stück weit verliert und wie oft von teilnehmenden Religionslehrern angemerkt, von nun an einen Platz im regulären Unterricht haben werde. Die Ziele solcher Gespräche, die in einem späteren Punkt explizit erläutert werden, sollen geringfügig modifiziert werden, so dass man sie erfolgreich von Kleingruppen auf Großgruppen übertragen kann. Gleichzeitig soll dabei jedoch auch weiterhin der Lehrplan berücksichtigt werden, den es im regulären Unterricht einzuhalten gilt. Es soll gezeigt werden, dass auch oder vor allem unter den Richtlinien des Lehrplans vorgegebene Inhalte und Kompetenzen mit dem theologischen Gespräch vereinbar sind. Um die Lehrziele optimal erfüllen zu können, werden einige ausgewählte Methoden, die vorrangig in den theologischen Gesprächen genutzt werden, analysiert und auf ihre Tauglichkeit in Klein-, vor allem aber in Großgruppen hin untersucht. Es soll jedoch nicht nur eine Bewertung dieser Methoden vorgenommen werden, sondern zusätzlich sollen bisherige Erfahrungen miteinfließen und damit das Bild unterschiedlicher Möglichkeiten in theologischen Gesprächen abrunden. Unter anderem werden zur Verdeutlichung Transkripte genutzt, um Unterschiede in der Dynamik der verschiedenen Gruppen am Praxisbeispiel zu verdeutlichen. Die Erfahrungen und Reflexionen des unternommenen qualitativen Vergleichs werden anschließend in Form von persönlichen Hinweisen im letzten Abschnitt ergänzt und zusammengefasst. Ziel dieser Hinweise ist es, Lehrkräften praktische Hilfen an die Hand zu geben, die sich der Aufgabe der theologischen Gespräche im regulären Unterricht in einer Großgruppe stellen möchten.