136 resultados para dynamische Benetzung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Wirkungsmechanismen institutioneller Rahmenbedingungen auf Ausmaß, Richtung, Reichweite und Geschwindigkeit von Innovationsprozessen werden aktuell kontrovers diskutiert. Als prominentes Beispiel dienen die politischen Umsetzungsbemühungen eines Leitbildes der Nachhaltigkeit, insbesondere die erforderliche Integration ökonomischer, sozialer und ökologischer Aspekte in individuelle Innovationsaktivitäten. Fragen der wirtschaftspolitischen Steuerungsmöglichkeiten und -grenzen und damit der hoheitlichen Lenkungspotenziale der Innovationsprozesse in Richtung Nachhaltigkeit gewinnen in diesem Zusammenhang erheblich an Relevanz. Vor dem Hintergrund einer Vielzahl staatlicher Eingriffe in die innovationsrelevanten Rahmenbedingungen analysiert die Arbeit vor allem die Funktionsprinzipien und institutionellen Vorbedingungen entwicklungsoffener dynamischer Marktprozesse. Auf dieser Basis werden die steuerungstheoretischen Implikationen einer sowohl nachhaltigkeitsorientierten als auch ordnungsökonomisch einwandfreien Wirtschaftspolitik fokussiert. Aus ordnungsökonomischer Perspektive wird die Anpassungsfähigkeit der Wettbewerbsordnung an systemendogenen und -exogenen Aktualisierungsbedarf und damit die institutionelle Absicherung ihrer Evolutionsfähigkeit zum Gütekriterium eines evolutorisch reinterpretierten Ordnungskonformitätskriteriums. Damit lassen sich auch die Risiken und Nebenwirkungen forschungs- und entwicklungspolitischer Interventionen in dynamische Marktsysteme analysieren und einer Bewertung unterziehen. Die Überprüfung der evolutorischen Ordnungskonformität (Zulässigkeit) europäischer Forschungs- und Entwicklungspolitik wird schließlich als Anwendungsbeispiel herangezogen. Als Arbeitshypothese dient die Vermutung, dass die derzeitigen forschungs- und entwicklungspolitischen Aktivitäten der Europäischen Union einer Überprüfung anhand des ordnungsökonomischen Referenzkriteriums der evolutorischen Ordnungskonformität nicht standhalten, da sie das (zweifellos vorhandene) hoheitliche Steuerungspotenzial überschätzen und in der Folge entwicklungslimitierende Effekte ausstrahlen. Gleichwohl werden – insbesondere unter Nachhaltigkeitsgesichtspunkten – innovationspolitische Steuerungsnotwendigkeiten in freiheitlich-wettbewerblich organisierte Ordnungen anerkannt. Mit dem Konzept variabler forschungs- und entwicklungspolitischer Leitplanken wird ein Vorschlag entwickelt, der den ordnungsökonomischen Anforderungen weitgehend Rechnung trägt und im Ergebnis nachhaltigkeitsmotivierte Steuerungsimpulse mit der Aufrechterhaltung eines weitgehend offenen Innovationswettbewerbs verbinden kann. Durch den Ausschluss der Förderung nicht-nachhaltiger Technologien und die damit prinzipiell erhaltene Handlungsfreiheit – bei gleichzeitiger Variabilität der Leitplanken angesichts wachsender ökologischer und technologischer Wissensbestände – kann dieses Konzept als potenziell ordnungskonformes Leitbild zukünftige FuE-Politik orientieren. Dessen Umsetzung führt über ein Konzept variabler forschungs- und entwicklungspolitischer Leitplanken, welche der wirtschaftlichen Ordnung Entwicklungsbeschränkungen der „Nicht-Nachhaltigkeit“ auferlegen, aber nicht nachhaltigkeitspolitisch vorbestimmte Allokationszustände zu realisieren versucht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Speckle Pattern Shearing Interferometrie (Shearografie) ist eine speckle-interferometrische Messmethode und zeichnet sich durch die ganzflächige, berührungslose Arbeitsweise, hohe räumliche Auflösung und hohe Messempfindlichkeit aus. Diese Dissertation beinhaltet die neue bzw. weitere Entwicklung der Shearografie zur qualitativen Schwingungsbeobachtung und zur quantitativen Schwingungsmessung. Für die qualitative Schwingungsbeobachtung in Echtzeit werden die Optimierung des Zeitmittelungsverfahrens und die neue entwickelte Online-Charakterisierung von Streifenmustern mit statistischen Verfahren vorgestellt. Auf dieser Basis können sowohl eine genaue Fehlstellen-Detektion bei der zerstörungsfreien Materialprüfung als auch eine präzise Resonanzuntersuchung zeitsparend und vollautomatisch durchgeführt werden. Für die quantitative Schwingungsmessung wird eine sog. dynamische Phasenschiebe-Technik neu entwickelt, welche durch die Einführung eines synchron zum Objekt schwingenden Referenzspiegels realisiert wird. Mit dieser Technik ermöglicht das Zeitmittelungsverfahren die Amplituden und Phasen einer Objektschwingung quantitativ zu ermitteln. Auch eine Weiterentwicklung des stroboskopischen Verfahrens in Kombination mit zeitlicher Phasenverschiebung wird in der Arbeit präsentiert, womit der gesamte Prozess der Schwingungsmessung und -rekonstruktion beschleunigt und automatisch durchgeführt wird. Zur Bestimmung des Verschiebungsfeldes aus den gemessenen Amplituden und Phasen des Verformungsgradienten stellt diese Arbeit auch eine Weiterentwicklung des Summationsverfahrens vor. Das Verfahren zeichnet sich dadurch aus, dass die Genauigkeit des ermittelten Verschiebungsfelds unabhängig von der Sheargröße ist und gleichzeitig das praktische Problem - Unstetigkeit - gelöst wird. Eine quantitative Messung erfordert eine genaue Kalibrierung der gesamten Messkette. Ein auf dem Least-Square-Verfahren basierendes Kalibrierverfahren wird in der Arbeit zur Kalibrierung der statischen und dynamischen Phasenverschiebung vorgestellt. Auch die Ermittelung der Sheargröße mit Hilfe der 1D- bzw. 2D-Kreuz-Korrelation wird präsentiert. Zum Schluss wurde die gesamte Entwicklung durch eine Vergleichsmessung mit einem handelsüblichen Scanning-Laser-Doppler-Vibrometer experimentell verifiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit befasst sich mit der Entwicklung analytischer Modelle im Bereich der elektrischen Maschinenauslegung und deren Umsetzung in ein Softwaresystem, dass zur Auslegung elektrischer Maschinen verwendet werden kann. Es wurden zahlreiche Modelle für die elektromagnetische sowie thermische Berechnung der permanentmagneterregten Synchronmaschine sowie Asynchronmaschine mit Kurzschlussläufer entwickelt. Bei den Berechnungen wurde mit einer geringen Anzahl von Eingabewerten eine gute Genauigkeit bei der Berechnung der Maschinenparameter erreicht. Dieses zeigte sich durch den Vergleich von analytisch berechneten Maschinenparametern und den Werten, die mittels der Finite-Elemente-Methode berechnet wurden. Darüber hinaus wurden auch Modelle entwickelt, die für spezielle Fragestellungen herangezogen werden können, wie zum Beispiel die Auswirkung der Stromverdrängung auf das dynamische Verhalten der Asynchronmaschine mit Käfigläufern. Die einzelnen Modelle wurden zu einer Softwareeinheit zusammengefasst, die Dienste zur Auslegung elektrischer Maschinen bereitstellt. Die Dienste dieser Softwareeinheit, die auf einem Server installiert ist, können über graphische Benutzerschnittstellen ortsunabhängig und somit weltweit verwendet werden. Durch die zentrale Lage der Modelle können sehr einfach Erweiterungen an der Berechnungssoftware vorgenommen und dem Nutzer zur Verfügung gestellt werden. Mit der Entwicklung einer graphischen Benutzerschnittstelle ist eine geführte und übersichtliche Eingabe der zur Berechnung notwendigen Eingaben entstanden. Mit der Wahl von http als Transportprotokoll wird ein etabliertes Protokoll verwendet, das eine Kommunikation zwischen zwei durch Firewalls abgesicherten Teilnetzen ermöglicht, ohne dass dadurch bedenkliche Lücken in einem Sicherheitskonzept entstehen. Durch die Verwendung von SOAP als Übertragungsprotokoll zwischen den Kommunikationspartnern wird ein firmen- und produktunabhängiges Protokoll verwendet, das sich in der Praxis immer stärker etabliert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Entwicklung in der Windkrafttechnik ist aufgrund der Wirtschaftlichkeitserwartungen besonders auf große Anlagen im MW-Bereich ausgerichtet. Im unteren Leistungsbereich (5 bis 100kW) bilden Entwicklungen und Anlageninstallationen weitgehend Ausnahmen und erfüllen meist nicht die für Hybridanlagen notwendige Systemfähigkeit, was eine Einbindung in dezentrale Energiesysteme erschwert. Im Rahmen dieser Arbeit werden die elektrischen Komponenten für eine kostengünstige und systemfähige Windkraftanlage entwickelt, mit der die Nutzung erneuerbarer Energiequellen durch Einbindung der Windenergie in die modulare Energie-Systemtechnik erweitert und wesentlich verbessert wird. Dabei stellt der Generator als mechanisch-elektrischer Energiewandler die Schlüsselkomponente dar. Um den Teil- und Volllastbetrieb effektiv zu gestalten, wird bei der Auslegung und Optimierung des Generators nach dem Kennlinienverfahren möglichst großen Werten von Wirkungsgrad und Leistungsfaktor in einem weiten Spektrum der abgegebenen Leistung eine hohe Wichtigkeit beigemessen. Um hohe Energieerträge sowohl im Teil- als auch im Volllastbetrieb zu erzielen, wird der Generator polumschaltbar ausgeführt und im Betrieb entsprechend der aktuell eingespeisten Leistung zwischen zwei Drehzahlen geschaltet. Die durchgeführten Untersuchungen an mehrfach optimierten und speziell angefertigten Generatortypen sollen als Grundlage für die Gesamtkonzeption der Windenergieanlage dienen. Um die energetischen Auswirkungen und betriebstechnische Möglichkeiten der Auslegung zu ermitteln, werden im gesamten auftretenden Leistungsspektrum – Leerlauf bis 130% der Nennleistung – die mechanischen und elektrischen Verhaltensweisen in Abhängigkeit von der elektrisch abgegebenen Leistung bei unterschiedlichen Sättigungsgraden des Generators untersucht. Im Hinblick auf die Auslegung der mechanischen und elektrischen Komponenten wie z.B. des Getriebes und des Schleifringkörpers werden dynamische Zustandsänderungen wie verschiedene Kurzschlussvarianten und die Zuschaltung auf das Netz untersucht und dargestellt. Um den Anlagenbetrieb für nahezu alle Netze weltweit zu gewährleisten, wird eine polumschaltbare Einphasenmaschine für 240V / 60Hz ausgelegt. Der Generator kann mit Betriebskondensatorstufen im gesamten Leistungsbereich von Leerlauf bis Nennleistung ohne Laufgeräusche und Rüttelkräfte betrieben werden. Dabei soll der Einphasenasynchrongenerator nach dem gleichem Optimierungsverfahren wie beim Dreiphasigen Asynchrongenerator sowohl für die 4-polige als auch für die 6-polige Drehzahlstufe hohe Teillastwirkungsgrade erreichen. Um möglichst symmetrische Betriebsverhältnisse hinsichtlich Drehmomentschwankungen erreichen zu können, wird die Auslegung der Betriebskapazität an den Drehmomentschwankungen ausgerichtet und eine Optimierung der Betriebskapazität anhand minimaler Amplituden der Pendelmomente erreicht. Damit wird gezeigt, dass auch kleine Windkraftanlagen einen wertvollen Beitrag zur netzverträglichen und nachhaltigen Elektrizitätsversorgung leisten können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The 21st century has brought new challenges for forest management at a time when globalization in world trade is increasing and global climate change is becoming increasingly apparent. In addition to various goods and services like food, feed, timber or biofuels being provided to humans, forest ecosystems are a large store of terrestrial carbon and account for a major part of the carbon exchange between the atmosphere and the land surface. Depending on the stage of the ecosystems and/or management regimes, forests can be either sinks, or sources of carbon. At the global scale, rapid economic development and a growing world population have raised much concern over the use of natural resources, especially forest resources. The challenging question is how can the global demands for forest commodities be satisfied in an increasingly globalised economy, and where could they potentially be produced? For this purpose, wood demand estimates need to be integrated in a framework, which is able to adequately handle the competition for land between major land-use options such as residential land or agricultural land. This thesis is organised in accordance with the requirements to integrate the simulation of forest changes based on wood extraction in an existing framework for global land-use modelling called LandSHIFT. Accordingly, the following neuralgic points for research have been identified: (1) a review of existing global-scale economic forest sector models (2) simulation of global wood production under selected scenarios (3) simulation of global vegetation carbon yields and (4) the implementation of a land-use allocation procedure to simulate the impact of wood extraction on forest land-cover. Modelling the spatial dynamics of forests on the global scale requires two important inputs: (1) simulated long-term wood demand data to determine future roundwood harvests in each country and (2) the changes in the spatial distribution of woody biomass stocks to determine how much of the resource is available to satisfy the simulated wood demands. First, three global timber market models are reviewed and compared in order to select a suitable economic model to generate wood demand scenario data for the forest sector in LandSHIFT. The comparison indicates that the ‘Global Forest Products Model’ (GFPM) is most suitable for obtaining projections on future roundwood harvests for further study with the LandSHIFT forest sector. Accordingly, the GFPM is adapted and applied to simulate wood demands for the global forestry sector conditional on selected scenarios from the Millennium Ecosystem Assessment and the Global Environmental Outlook until 2050. Secondly, the Lund-Potsdam-Jena (LPJ) dynamic global vegetation model is utilized to simulate the change in potential vegetation carbon stocks for the forested locations in LandSHIFT. The LPJ data is used in collaboration with spatially explicit forest inventory data on aboveground biomass to allocate the demands for raw forest products and identify locations of deforestation. Using the previous results as an input, a methodology to simulate the spatial dynamics of forests based on wood extraction is developed within the LandSHIFT framework. The land-use allocation procedure specified in the module translates the country level demands for forest products into woody biomass requirements for forest areas, and allocates these on a five arc minute grid. In a first version, the model assumes only actual conditions through the entire study period and does not explicitly address forest age structure. Although the module is in a very preliminary stage of development, it already captures the effects of important drivers of land-use change like cropland and urban expansion. As a first plausibility test, the module performance is tested under three forest management scenarios. The module succeeds in responding to changing inputs in an expected and consistent manner. The entire methodology is applied in an exemplary scenario analysis for India. A couple of future research priorities need to be addressed, particularly the incorporation of plantation establishments; issue of age structure dynamics; as well as the implementation of a new technology change factor in the GFPM which can allow the specification of substituting raw wood products (especially fuelwood) by other non-wood products.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurden neue symmetrische Spiro-p-oligophenyle der allgemeinen Form Spiro-o-Φ[n,n] mit der Gesamtkettenlänge o=2n+2 Phenylringen (o > 10) und der Zahl n der Phenylringe in den p-Oligophenylsubstituenten am Spirobifluorenkern, dargestellt. Neben den symmetrischen Verbindungen wurden erstmals auch unsymmetrische Spiro-p-oligophenyle der allgemeinen Form Spiro-o-Φ[n,m] mit o=n+m+2 (o = 3-7) und n ≠ m synthetisiert. Aufgrund der sehr geringen Löslichkeit der größeren Verbindungen wurden löslichkeitssteigernde Substituenten an den endständigen Phenylringen angebracht. Bei den Verbindungen, die mit Trimethylsilyl-Gruppen (TMS-) in den endständigen meta-Positionen „3“ und „5“ substituiert wurden, konnte die Löslichkeit um mehrere Größenordnungen gesteigert werden, sodass die Darstellung der symmetrischen Verbindungen bis zu einer Kettenlänge von 16 Phenylringen möglich wurde. Nach erfolgreicher Synthese und Aufreinigung wurden die TMS-Gruppen wieder entfernt und die erhaltenen, unsubstituierten Verbindungen charakterisiert. Zusätzlich wurden auch die TMS-Derivate untersucht. Zur Charakterisierung zählten neben der Reinheits- und Strukturanalytik unter anderem auch spektroskopische (UV/Vis-Absorption, Fluoreszenz, Fluoreszenzquantenausbeute), elektrochemische (Cyclovoltammetrie) und thermische (Thermogravimetrie, Dynamische Differenzkalorimetrie) Untersuchungen. Hier wurde unter anderem der Einfluss der Kettenlänge und der Position der Spiroverknüpfung auf isomere Verbindungen gleicher Kettenlänge untersucht. Bei den spektroskopischen Messungen konnte eine Konvergenz der längstwelligen Absorptionsbanden, bzw. kürzestwelligen Fluoreszenzbanden mit zunehmender Kettenlänge beobachtet werden. Die effektive Konjugationslänge konnte so aus experimentellen Daten bestimmt werden zu 12 Phenylringen in der Absorption und 14 Phenylringen in der Fluoreszenz. Bei den Isomeren gleicher Kettenlänge zeigte sich in der Absorption eine hypsochrome Verschiebung der Absorptionsmaxima mit zunehmender Verschiebung der Spiroverknüpfung zum Kettenende hin, während die Position der Spiroverknüpfung keinen messbaren Einfluss auf die Verschiebung der Fluoreszenzbanden hatte. Die Substitution mit TMS in den meta-Positionen zeigte keinen messbaren Einfluss auf die Absorptions- bzw. Fluoreszenzbanden. Die elektrochemischen Untersuchungen zeigten mit zunehmender Kettenlänge eine erleichterte Oxidation und Reduktion, während bei Isomeren gleicher Kettenlänge die Oxidation mit Verschiebung der Spiroverknüpfung zum Kettenende hin erschwert und die Reduktion erleichtert war. Die thermogravimetrischen Analysen (TGA) zeigten eine außerordentlich hohe thermische Stabilität (5% Massenabnahme unter Schutzgas) der Spiro-p-oligophenyle von Td,5% = 474°C bei Spiro-5Φ[1,2] bis 570°C bei Spiro 8Φ[3,3]. Ebenso blieben hohe Rückstandsmassen unter Schutzgas bei 850°C zurück, wie das Beispiel Spiro 8Φ[3,3] mit 68% zeigt. Die Verbindungen zeigten hohe Schmelzpunkte (max. 496°C bei Spiro-6Φ[0,4]) und Glasübergangstemperaturen (max. 434°C bei p-TMS-Spiro-8Φ[3,3]). Viele der Verbindungen, besonders die in den meta-Positionen TMS-substituierten Verbindungen, bildeten stabile amorphe Gläser.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersuchte die Einflüsse der Bodenart und Einarbeitungstiefe von Streu auf die mikrobielle Nutzung und ihren Abbau. Anhand einer Kohlenstoffsequestrierung wurde die Verlagerung streubürtigen Kohlenstoffes in die Fraktionen CO2-C, SOC, extrahierbaren Kohlenstoff, Cmik und POM-C betrachtet. Aufgrund der Analyse der δ13C-CO2 Werte der Bodenrespiration, im Rahmen der Sequestrierung des streubürtigen Kohlenstoffes, war der Anteil der streubürtigen Bodenrespiration und somit die gesamte, zu erwartende Bodenrespiration bekannt. Durch die, bei der Kohlenstoffsequestrierung, ermittelten Werte konnte eine Plausibilitätsprüfung an vier Methoden zur Erfassung der Bodenrespiration, auf ihre Genauigkeit und mögliche Artefakte hin, durchgeführt werden. Des Weiteren wurden in einem anschließenden Freilandversuch unter subtropischen Bedingungen die Einflüsse verschiedener Dünger und Feldfrüchte, in Abhängigkeit der Streuqualität, auf den Streuabbau und die mikrobielle Besiedelung hin untersucht. Im ersten Versuch (Kapitel 3), wurde anhand eines Säulenversuches der Einfluss der Einarbeitungstiefe, in Anhängigkeit der Bodenart, auf den Streuabbau untersucht. Dieses ist von großer Bedeutung, da auf landwirtschaftlich genutzten Flächen Streu und so genannte "Grüne Dünger" durch den Einsatz unterschiedlicher Bodenbearbeitungssysteme, wie z.B. der Kreiselegge oder dem Wendepflug, in unterschiedliche Tiefen eingearbeitet werden. Die Verlagerung streubürtigen mikrobiellen Kohlenstoffes per Pilzhyphen, über eine Distanz von bis zu 20 cm wurde innerhalb dieser Arbeit das erste Mal gezeigt. Bisherige Studien zeigten einzig einen Transport von streubürtigem Kohlenstoff per Pilzhyphen, über eine kurze Distanz von der Detritussphäre in den angrenzenden Boden. Der höhere Anteil streubürtigen mikrobiellen Kohlenstoffes innerhalb der von der Streuschicht weiter entfernten Schichten im sandigen Boden, im Vergleich zum lehmigen Boden zeigte, dass das feine Porenvolumen des lehmigen Bodens den Transport Streubürtigen Kohlenstoffes per Pilzhyphen grundsätzlich behindert. Diese Annahme wurde durch die stärkere Abnahme des Anteils streubürtigen mikrobiellen Kohlenstoffes, mit zunehmender Entfernung zur Streuschicht, im lehmigen Boden im Vergleich zum sandigen Boden unterstützt. Es ist davon auszugehen, dass der sandige Boden zusätzlich durch die höhere Porosität eine erhöhte Sauerstoffdurchlässigkeit und somit, in den tieferen Schichten bessere Wachstumsbedingungen für Mikroorganismen bietet als der lehmige Boden. Durch die Ausbreitung substratbürtigen mikrobiellen Kohlenstoffes wurde im sandigen Boden mehr streubürtiger Kohlenstoff durch Mikroorganismen inkorporiert als im lehmigen Boden. Ein weiterer Grund für die geringere Verlagerung von streubürtigem Kohlenstoff in die mikrobielle Biomasse des lehmigen Bodens ist wahrscheinlich der bessere physikalische Schutz durch den höheren Tonanteil. Durch die Einarbeitung der Streu stieg in allen Ansätzen der Gehalt an Ergosterol, welcher ein wesentlicher Indikator für die Präsenz saprotropher Pilze ist. Besonders stark ausgeprägt war der Anstieg des Ergosterolgehaltes, sowie des Ergosterol / mikrobielle Biomasse C – Quotienten, wenn Streu in die untere Schicht (15 - 20 cm) ein-gearbeitet wurde. Diese tiefenspezifischen Unterschiede wurden bisher in noch keinem weiteren Versuch beobachtet und können auf die Entwicklung unterschiedlicher pilzlicher Gemeinschaften zurück zu führen sein. Es ist jedoch wahrscheinlicher, dass pilzliche Nekromasse in den oberen Bodenschichten schneller umgesetzt wird und somit bei der Ergosterolbestimmung nicht mit erfasst wird. Da der Umsatz der pilzlichen Nekromasse im porösen sandigen Boden, aufgrund der höheren Sauerstoffverfügbarkeit und des geringeren physikalischen Schutzes, vermutlich höher ist als im lehmigen Boden, wird diese Annahme durch den im sandigen Boden geringeren Gehalt an mikrobiellen Kohlenstoff unterstützt. Wie erwartet, überstieg die Mineralisation der Streu im sandigen Boden die der im lehmigen Boden. Jedoch anders als erwartet, unterschied sich die Mineralisation in Abhängigkeit der Einarbeitungstiefe, mit einer erhöhten Mineralisation bei Einarbeitung der Streu in 0 - 5 cm Tiefe, einzig im sandigen Boden. Die Berechnung des Ertragskoeffizienten zeigte, dass die Substratsnutzungseffizienz der Mikroorganismen im sandigen Boden signifikant geringer war als die im lehmigen Boden. Die Zugabe von Streu führte in beiden Böden, verstärkt jedoch im lehmigen Boden, zu einem positiven Priming Effekt, der in beiden Bö-den stärker ausgeprägt war, als Streu in 0–5 cm Tiefe eingearbeitet wurde. Trotz Abnahme der SOC-bürtigen mikrobiellen Biomasse stieg die Mineralisation des SOC stark an. Es ist anzunehmen, dass extrazelluläre Enzyme wie Cellulase und Lignin modifizierende Enzy-me, produziert von saprotrophen Pilzen, zum Abbau von Cellolose und Lignin der Streu, zum Teil sehr effizient SOC abbauen. Im zweiten Versuch (Kapitel 4) wurde anhand des gleichen Säulenversuches (Versuch 1; Kapitel 3) der Einfluss der Entfernung von CO2-hot-spots im Boden zur Bodenoberfläche, in Abhängigkeit der Bodenart, auf vier verschiedene Methoden zur Erfassung der Bodenrespiration betrachtet. Zusätzlich wurde durch eine Plausibilitätsprüfung anhand der Kohlenstoffbilanz, basierend auf der in Versuch 1 durchgeführten Kohlenstoffsequestrierung, die Genauigkeit der vier Methoden in Abhängigkeit der Bodenart überprüft. Für beide Ansätze mit sandigem Boden zeigen IR und PAS eine deutliche Überschätzung der mit NaOH und GC bestimmten Bodenrespiration. Die Überschätzung durch IR ist dabei auf die durch die dynamische Haube verursachten Turbulenzen und deren Auswirkungen auf den porösen sandigen Boden zurück zu führen. Bei geringen Respirationsraten, wie bei der Kontrolle, zeigt die Messung mittels IR trotz Turbulenzen, verursacht durch den Ventilator der Haube, keine Überschätzung. Die Überschätzung durch PAS hingegen kann nicht auf Turbulenzen, verursacht durch die dynamische Haube, zurück geführt werden, da bei den Analysen mit PAS und GC identische Hauben, höher und größer als bei IR, eingesetzt wurden und die Bodenrespiration durch GC nicht überschätzt wurde. Im Gegensatz zu beiden sandigen Ansätzen überschätzt IR die Bodenrespiration im lehmigen Boden nicht. NaOH hingegen unterschätzt die Bodenrespiration, wenn Streu in 15-20 cm Tiefe des lehmigen Bodens eingearbeitet ist. Dieses ist dadurch zu erklären, dass, bedingt durch die geringere Porosität sowie das höhere Wasserhaltevermögen und dem daraus resultierenden geringeren Luft gefüllten Porenvolumen, die Diffusion von CO2 im lehmigen Boden langsamer ist als im sandigen Boden. Nach Absorption des CO2 der Haubenluft diffundiert das CO2 des CO2-hot-spots in 15-20 cm Tiefe, entlang des Diffusionsgradienten, aufgrund des Diffusionswiderstandes in lehmigen Boden langsamer zur Oberfläche als im sandigen Boden oder wenn der CO2-hot-spot direkt unter der Bodenoberfläche liegt. Da bei der Messung mit der dynamischen Haube diese nur kurz auf der Fläche verbleibt, beeinflusst der Diffusionsgradient diese Messungen nicht. Hinzukommt, dass bei den Messsystemen, die in Kombination mit der dynamischen Haube eingesetzt werden, im Gegensatz zur Absorption durch Lauge keine CO2 Abreicherung stattfindet und die Diffusion von CO2 aus dem Boden über lange Zeit bis zu hohen CO2 Konzentration in der Haube linear bleibt. Alle drei mit einer dynamischen Haube kombinierten Methoden zeigen mit Korrelations-koeffizienten zwischen 0,90 und 0,93 starke Korrelationen mit NaOH. Während PAS die Bodenrespiration im Verhältnis zu NaOH immer überschätzt, tritt eine Überschätzung durch GC nur bei Mineralisationsraten unter 500 mg m-2 h-1 und für IR bei Mineralisations-raten über 40 mg m-2 h-1 ein. Die Plausibilitätsprüfung zeigt, dass für sandigen Boden, mit NaOH und GC eine sehr exakte Wiederfindung von Kohlenstoff erreicht wird, wohingegen IR und PAS in der Wiederfindung von Kohlenstoff bei deutlich über 100 % liegen. Für den lehmigen Boden hingegen ist nach Entfernung der CO2-hot-spots zur Bodenoberfläche zu differenzieren. Befindet sich der CO2-hot-spot direkt unter der Bodenoberfläche ist die Wiederfindung von Kohlenstoff für NaOH, GC und IR sehr exakt. Befindet sich der CO2-hot-spot jedoch in 15-20 cm Tiefe, ist die Wiederfindung des Kohlenstoffes durch NaOH deutlich unter 100 %. Die Wiederfindung durch PAS liegt sowohl für den sandigen als auch für den lehmigen Boden immer deutlich über 100 %. Im dritten Versuch (Kapitel 5), wurde anhand eines Litterbag-Versuches im Norden des Omans, der Einfluss verschiedener Dünger und Feldfrüchte auf den Abbau von Streu auf landwirtschaftlich genutzten Flächen in Abhängigkeit der Streuqualität betrachtet. Bei dem Großteil bisheriger Streuabbauversuche, unter gemäßigten und subtropischen Klimaten, stand der Abbau von Streu im Wald im Fokus der Betrachtung. Die wenigen Versuche zum Streuabbau auf landwirtschaftlich genutzten Flächen beschränken sich auf die gemäßigten Klimate. Wohingegen der Abbau von Streu, sowie der Einfluss von Dünger und Feldfrucht unter subtropischen Bedingungen, zum ersten mal mit der vorliegenden Arbeit fokussiert wurde. Der Verlust an organischem Material war verglichen mit Versuchen un-ter gemäßigten Klimaten, bei allen vier Streuarten, generell hoch. Der höhere Abbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu ist auf Unterschiede der Streuqualität zurückzuführen. Neben der Verwertbarkeit durch Mikroorganismen beeinflusst die Streuqualität zusätzlich die "Schmackhaftigkeit" der Streu für Organismen der Mesofauna. Wodurch ein selektiver Transport und/oder Grazing von Mikroorganismen stattfindet. Der geringere Abbau der Luzernenstreu verglichen mit Maisstreu jedoch ist nicht auf die Streuqualität sondern auf die geringere mikrobielle Besiedelung der Luzernenstreu während der Versuchszeit zurückzuführen. Der Unterschied im Grad der mikrobiellen Besiedelung kann durch die erhobenen Daten nicht erklärt werden. Es ist jedoch davon auszugehen, dass Leguminosen Substanzen wie z.B. Polyphenole enthalten, welche die mikrobielle Biomasse und im Besonderen die pilzliche Biomasse in beachtlichem Umfang inhibitieren. Ebenso wenig ist der höhere Abbau von Weizenstreu verglichen mit Rapsstreu durch die Streuqualität zu begründen. Eine mögliche Erklärung für den geringeren Abbau der Rapsstreu kann ihr hoher Aluminium Gehalt sein. Es ist jedoch wahrscheinlicher, dass die Rapsstreu organische Substanzen wie Glucosinolate enthält, welche den mikrobiellen Streuabbau inhibitieren. Während der Hemicellulosegehalt am Ende des Versuches nicht durch die Streuqualität beeinflusst war, zeigten Cellulose und Lignin quali-tätsabhängige Effekte. Der stärkere Abbau von Cellulose bei Luzernen- und Maisstreu ist auf den anfänglich höheren Stickstoffgehalt zurückzuführen, wodurch die Produktion und Aktivität von Cellulose degradierenden Enzymen, wie Exo-Cellulase, Endo-Cellulase und Xylanase, anstieg. Es ist davon auszugehen, dass die Differenzen im Celluloseabbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu, neben Unterschieden im anfänglichen Stickstoffgehalt, auf den höheren Schutz von Cellulose durch Lignin in Raps- und Weizenstreu zurückzuführen sind. Während der initial geringe Stickstoffgehalt den Ligninabbau in Raps- und Weizenstreu unterstützt, ist die relative Anreicherung von Lignin in Luzernen- und Maisstreu hingegen auf den initial hohen Stickstoffgehalt zurückzuführen. Dem entgegen hat die Zusammensetzung weiterer Nährstoffe einen sehr geringen Effekt. Es ist jedoch möglich, dass stärkere Effekte durch den Eintrag von Boden in die Litterbags durch Organismen der Mesofauna, Wurzelwachstum oder physikalische Verlagerung überdeckt werden. Während unter organische Düngung, die pilzliche Biomasse ansteigt, fördert der leicht verfügbare Stickstoff der mineralischen Düngung die Bildung bakterieller Biomasse. Der höher Gehalt an pilzlicher Biomasse unter organischer Düngung zeigte keinen generellen Effekt auf den Abbau von Kohlenstoff. Er führte jedoch zu einer Veränderung in der Streuzusammensetzung. Die verringerte Abnahme bzw. verstärkte Zunahme der Nährstoffgehalte bei organischer Düngung ist durch den Eintrag dünger-bürtiger Nährstoffe, im Besonderen durch die verstärkte Bildung pilzlicher Hyphen in die Litterbags hinein, zu erklären. Trotz höherer Gehalte an pilzlicher Biomasse war der Ligningehalt am Ende des Versuches unter organischer Düngung höher als unter mineralischer Düngung. Diese ist auf den Eintrag düngerbürtiger Pilze zurückzuführen, welche eine geringere Lignindegradierungseffizienz aufweisen. Der Einfluss der Feldfrucht auf den Streuabbau äußert sich durch höhere Gehalte mikrobieller und im Besonderen pilzlicher Biomasse, und durch geringere Gehalte an N, P, Ca, Na und K in, im Litterbag verbleiben-der Streu, unter dem Anbau von Mohrrüben. Der Anstieg der pilzlichen Biomasse führt, ebenso wie bei der organischen Düngung zu keinem generellen Anstieg der Kohlenstoffdegradation, zeigt jedoch einen selektiven Effekt auf den Abbau von Cellulose. Der Einfluss, sowohl auf die mikrobielle Biomasse, als auch auf den Nährstoffgehalt, zeigt die Bedeutung der Unterschiede im Wurzelwachstum, der Rhizodeposition sowie des Nährstoffbedarfs in Abhängigkeit der Feldfrucht. Trotz großer Unterschiede der Streuarten im anfänglichen Gehalt mikrobieller Biomasse war dieser am Ende des Versuches für alle Streuarten identisch. Dieses war Folge eines starken Anstiegs der pilzlichen Biomasse bei Luzernen- und Maisstreu sowie einer Abnahme der pilzlichen Biomasse bei Raps- und Weizenstreu, welche zuvor noch nicht beobachtet wurde. Dieses macht den Einfluss der anfänglichen mikrobiellen Biomasse auf deren Entwicklung während des Streuabbauprozesses im Boden deutlich. Es ist anzunehmen, dass ein Teil der anfänglichen pilzlichen Biomasse der Raps- und Weizenstreu, welche sich unter gemäßigten Klimaten entwickelte, unter subtropischen Bedingungen nicht überlebensfähig war. Generell war der Streuabbau durch Pilze dominiert. Es zeigte sich jedoch, dass Unterschiede im Pflanzenmaterial einen Einfluss auf die bakterielle Biomasse hatten, Unterschiede in Düngung und Feldfrucht hingegen die pilzliche Biomasse und die bakterielle Biomasse beeinflussten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Diplomarbeit, befasst sich mit der Darstellung von TEI-Dokumenten im Content-Management-System „Drupal“. Dazu wird ein Modul entwickelt, welches das einfache Publizieren von Dokumenten in diesem, auf der Extensible Markup Language (XML) basierenden Format, in Drupal ermöglicht. Das Modul bietet eine Oberfläche zum Hochladen dieser Dokumente an und stellt zusätzlich Optionen bereit, die es ermöglichen die Darstellung der angezeigten Dokumente zu beeinflussen. Dabei ist es durch ein spezielles Menü möglich, Farben, Schriftgröße und -art festzulegen. Die Konvertierung der Dokumente geschieht per XSL Transformation und basiert auf dem Ergebnis eines vorangegangenen Projekts. Die Darstellung wird angereichert durch dynamische Elemente, wie Anmerkungen des Autors oder die Möglichkeit zur Umschaltung zwischen verschiedenen Textversionen wie z.B. einer originalen und einer korrigierten Fassung. Diese Funktion ist durch eine Werkzeugleiste zugänglich, die im unteren Bereich eingeblendet wird und es auch ermöglicht Seitenzahlen, die im Dokument als solche erkannt wurden, zu suchen oder direkt aufzurufen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um die Nährstoffeffizienz im Boden zu erhöhen und klimarelevante Gasemissionen zu minimieren, sind quantitative Informationen zu den C- und N-Fraktionen im Kot sowie deren Mineralisierungspotential nötig. Da über die Hälfte des fäkalen N mikrobiell gebunden ist, sind Methoden zur Bestimmung der mikrobiellen Kotqualität hilfreich. Ziele der ersten Publikation waren die Anwendung der CFE-Methode zur Bestimmung der mikrobiellen Biomasse in Rinderkot, Ergosterolbestimmung als Marker für die pilzliche Biomasse und Aminozuckernachweis zur Analyse der mikrobiellen Gemeinschaftsstruktur (pilzliches Glucosamin und bakterielle Muramin-säure). Mit Hilfe der CFE-Methode sollten lebende Mikroorganismen im Kot, inklusive Bakterien, Pilze und Archaeen, erfasst werden. Verschiedene Extraktionsmittel wurden für diese Methode getestet, um stabile Extrakte und reproduzierbare mikrobielle Biomasse-C- und -N-Gehalte zu erhalten. Der Einsatz von 0.05 M CuSO4 als Extraktionsmittel löste vorherige Probleme mit der Extraktion CHCl3-labiler N-Komponenten und sorgte für stabile Kotextrakte. Die Methoden wurden in einem Kotinkubationsexperiment bei 25 °C verglichen. Mikrobielle Parameter zeigten dynamische Charakteristika und mögliche Verschiebungen innerhalb der mikrobiellen Gemeinschaft. Im Kot von Färsen betrug das mittlere C/N-Verhältnis 5,6 und der mittlere Cmik/Corg-Quotient 2,2%, das Verhältnis von Ergosterol zum mikrobiellen Biomasse-C war 1,1‰. Ergosterol und Aminozuckeranalyse ergaben einen signifikanten Pilzanteil von über 40% des mikrobiellen Gesamt-C. Für die Analyse mikrobieller Parameter in Rinderkot erwiesen sich alle getesteten Methoden als geeignet. Diese wurden für die folgenden Fütterungsversuche weiter unabhängig voneinander angewendet und verglichen. Die zweite Publikation verglich eine N-defizitäre (ND) und eine ausgeglichene N-Bilanz (NB) bei der Fütterung von Milchkühen unter Berücksichtigung der Kot-inhaltsstoffe, der mikrobiellen Parameter und der Verdaulichkeit. Unterschiede zwischen Individuen und Probennahmetagen wurden ebenfalls miteinbezogen. Mittlerer mikrobieller Biomasse-C- und -N-Gehalt war 37 bzw. 4,9 mg g-1 TM. Der Pilzanteil lag diesmal bei 25% des mikrobiellen Gesamt-C. Die Fütterung zeigte signifikante Effekte auf die Kotzusammensetzung. Das fäkale C/N-Verhältnis der NB-Fütterung war signifikant niedriger als bei ND. Gleiches gilt für das C/N-Verhältnis der mikrobiellen Biomasse mit jeweils 9.1 und 7.0 für ND und NB. Auch die Verdaulichkeit wurde durch die Fütterung beeinflusst. Unverdauter Futterstickstoff, Faserstoffe (NDF) und Hemi-cellulose waren in der ND-Behandlung signifikant erhöht. Einige Parameter zeigten nur einen Einfluss der Probennahmetage, mit den angewendeten Methoden gelang jedoch der eindeutige Nachweis der Fütterungseffekte auf mikrobielle Parameter im Rinderkot, wobei sich die Fütterung in nur einer Variable unterschied. Weitere Fütterungseinflüsse auf die Kotqualität wurden schließlich auch für Rinder unterschiedlicher Leistungsstufen erforscht. Hier waren die Unterschiede in der Fütterung wesentlich größer als in den vorhergehenden Experimenten. Der Kot von Färsen, Niederleistungs- und Hochleistungskühen sowie dessen Einfluss auf N2O-Emissionen, N-Mineralisierung und pflanzliche N-Aufnahme wurden untersucht. Die Färsenfütterung mit geringem N- und hohem ADF-Anteil führte zu pilzdominiertem Kot. Besonders im Vergleich zum Kot der Hochleistungskühe war der Gehalt an mikrobiellem Biomasse-C niedrig, in Verbindung mit einem breiten mikrobiellen C/N-Verhältnis und hohem Ergosterolgehalt. Eingemischt in Boden zeigte Färsenkot die niedrigste CO2-Produktion und höchste N-Immobilisierung sowie niedrigste N2O-Emissionen während einer 14-tägigen Inkubation bei 22 °C. In einem 62-Tage-Gefäßversuch mit Welschem Weidelgras waren der Trocken-masseertrag und die pflanzliche Stickstoffaufnahme in den Färsenbehandlungen am niedrigsten. Die Stickstoffaufnahme durch die Pflanzen korrelierte positiv mit der Stickstoffkonzentration im Kot und negativ mit dem Rohfasergehalt, aber auch negativ mit dem C/N-Verhältnis der mikrobiellen Biomasse und dem Verhältnis von pilzlichem zu bakteriellem C. Mikrobielle Parameter im Kot zeigten einen größeren Zusammen-hang mit der pflanzlichen Stickstoffaufnahme als die mikrobiellen Bodenparameter.