898 resultados para Extrusion dies
Resumo:
Im Zuge dieser Arbeit werden die Entstehungszusammenhänge vorhandener und teilweise auch de facto genutzter Nachhaltigkeitspotentiale ausgewählter Gemeinden Nordhessens beleuchtet. Die Gemeinde als bürgernahste staatliche Verwaltungseinheit, welche aktiv auf das Verhalten von Menschen und Unternehmen Einfluss nehmen kann, endet dabei nicht an der verwaltungsrechtlichen und politischen Gemeindegrenze. Aus Gründen der Handhabbarkeit des Promotionsvorhabens beschränkt sich der Autor auf die getrennt voneinander zu betrachtenden Arenen der Ernährung und Energiewirtschaft. Ziel dieses Vergleiches ist es, diejenigen Gemeinden benennen zu können, welche von sich und anderen Gemeinden als Musterschüler angesehen werden und die Gründe zu eruieren, welche Faktoren für diese subjektiv positive Entwicklung entscheidend waren und sind. Umgekehrt gilt es, für Gemeinden mit Nachholbedarf im Bereich nachhaltiger Ernährung und Energiewirtschaft, die hemmenden Faktoren herauszufinden. Auf der Ebene der Gemeinde gibt es zahlreiche Möglichkeiten, energiesparende und klimarelevante Maßnahmen durchzuführen oder etwa eine regional-biologische Schulspeisung einzuführen. Niemand ist für eine Klimaveränderung mit katastrophalen Auswirkungen auf unsere Lebensverhältnisse in der Zukunft. Das Verhalten der entscheidenden Akteure legt es aber nahe, dass eine “derartige Veränderung mit zunehmender Wahrscheinlichkeit eintreten wird. Warum gibt es diese Diskrepanz? Dafür lassen sich zwei wesentliche Gründe anführen: die Unwissenheit über die Zusammenhänge und das Ausmaß der Bedrohung sowie die Gleichgültigkeit oder auch der Mangel an Verantwortung gegenüber der Zukunft.” Zum aktuellen Stand der globalen Nachhaltigkeit ist festzustellen: „Der Weltklimagipfel 2009 in Kopenhagen brachte keine spürbaren Fortschritte in Sachen Nachhaltigkeit, hier wurden im Bezug auf die Klimaerwärmung nur vage Ziele formuliert. Es gab zwar eine Abschlusserklärung, diese wurde aber nicht abgestimmt. Den teilnehmenden Ländern bleibt es somit freigestellt, ob sie den Text annehmen und umsetzen oder eben nicht.“ Aufgrund des besagten partiellen Versagens der nationalen und internationalen Ebene steigt die Verantwortung der kommunalen Ebene, welche sich ansonsten auf die Erfolge der Erstgenannten hätte berufen können. Auf der Ebene der Gemeinde gibt es zahlreiche Möglichkeiten, energiesparende und klimarelevante Maßnahmen durchzuführen, dies gilt auch noch nach dem Klimagipfel in Cancún, der seine Wirksamkeit erst noch beweisen muss.
Resumo:
Diese Dissertation hat das Ziel, zum einen die Transformation des Handelssystems von der GATT zur Welthandelsorganisation (WTO) im Kontext einer veränderten Weltordnung und zum anderen die Rollen von transnationalen Unternehmen im Rahmen dieser Transformation zu untersuchen und zu verstehen. Die Arbeit wird theoretisch vom Neogramscianismus angeleitet, da die etablierten Ansätzen in den Internationalen Beziehungen und der International Politischen Ökonomie nur unzureichend die intersubjektive Natur von Regimen und nicht-staatlichen Akteuren darstellen. Für Anhänger des Neogramscianismus sind internationale Regime intersubjektive Einheiten, deren Zusammenspiel von Ideen und Machtkonfigurationen historische Strukturen prägen. Die Hegemonie ist ein Konzept, das soziale Einflüsse als Agenten historischen Wandels in international Regimen und der Weltordnung zusammenbindet. Mit dem Konzept der Hegemonie wird eine Machtsituation beschrieben, in der politische Macht in legitime Autorität übersetzt wird, indem die Zustimmung subalterner Akteure eingeholt wird. Hegemonie beinhaltet die konsensuellen Aspekte von Machtausübung in einer jeweiligen Weltordnung. Diese Dissertation argumentiert vor allem, dass die Transformation des Handelssystems als hegemonisch bezeichnet werden kann, da sie parallel mit der Transformation der Weltordnung von einer von den USA dominierten Nachkriegszeit zu einer neoliberalen Hegemonie stattfand. Mit der Transformation zur Welthandlungsorganisation wird der legale Rahmen des Handelssystems neu strukturiert und ihre normative Grundlagen neu definiert, wodurch der ethische Rahmen des Neoliberalismus reflektiert wird. Diese Änderungen werden in der neuartigen Anerkennung der legitimen Autorität des Marktes gegenüber Nationalstaaten und der Anerkennung von der Notwendigkeit von bindenden Disziplinen, die Regierungen übergeordnet sind, reflektiert. Diese Dissertation analysiert zwei Fälle, um die Rolle von transnationalen Unternehmen innerhalb diese Transformationsprozesses zu erklären. Dabei wird der Fokus vor allem auf die Aktivitäten und Fähigkeiten der Unternehmen gerichtet, die Ausrichtung des Handelsregimes zu bestimmen. Die erste Studie untersucht die Eingliederung von Dienstleistungen in das GATT Regime vor und während der Uruguay-Runde (1986 – 1994) und argumentiert, dass diese Eingliederung zu einer Neudefinierung von Liberalisierung und Normen der Nichtdiskriminierung führte. Die zweite Studie analysiert den gescheiterten Versuch, ausländische Direktinvestitionen noch bevor und während der 2001 begonnenen Doha Runde in die Welthandelsorganisation zu integrieren. Letztendlich wird in dieser Dissertation argumentiert, dass transnationale Unternehmen, die in den Vereinigten Staaten ansässig sind, hegemonische Agenten der Regimetransformation waren und eine wichtige Rolle dabei gespielt haben, Dienstleistungen in das GATT einzubinden. Und zwar gelang ihnen dies durch eine in den späten 1970er Jahren begonnenen Kampagne. Auf der einen Seite war die Kampagne darin erfolgreich, etablierte Denkstrukturen zu Handelsthemen systematisch im Sinne des Neoliberalismus zu verändern – und zwar sowohl hinsichtlich der normativen Inhalte als auch der intersubjektiven Bedeutungen des Regimes. Auf der anderen Seite deutet der Fall des Investitionsabkommens die Grenzen der hegemonischen Ideen, Institutionen, und Strömungen seit den frühen 90er Jahren an. Transnationale Unternehmen, die in Europa ansässig waren, sind mit ihren Bemühungen gescheitert, das Regime weiter zu transformieren und das Thema Investitionen in die legalen und normativen Rahmenbedingungen der WTO zu integrieren. Die Prioritäten und Strategien der transnationalen Unternehmen, die Agenda der WTO zu beeinflussen, waren beschränkt und wurden im Kontext einer angefochtenen neoliberalen Hegemonie geformt, die wiederum von dem Widerstand und anti-hegemonischen Kampagnen der Zivilgesellschaft beeinflusst wurden. Die Analyse in dieser Dissertation wurde durch eine qualitative Diskursanalyse von Sekundär- und Primärquellen durchgeführt: Regierungsvorschläge, Verhandlungstexte, Konferenzzusammenfassungen und Statements von Unternehmen.
Resumo:
Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.
Resumo:
The present thesis is about the inverse problem in differential Galois Theory. Given a differential field, the inverse problem asks which linear algebraic groups can be realized as differential Galois groups of Picard-Vessiot extensions of this field. In this thesis we will concentrate on the realization of the classical groups as differential Galois groups. We introduce a method for a very general realization of these groups. This means that we present for the classical groups of Lie rank $l$ explicit linear differential equations where the coefficients are differential polynomials in $l$ differential indeterminates over an algebraically closed field of constants $C$, i.e. our differential ground field is purely differential transcendental over the constants. For the groups of type $A_l$, $B_l$, $C_l$, $D_l$ and $G_2$ we managed to do these realizations at the same time in terms of Abhyankar's program 'Nice Equations for Nice Groups'. Here the choice of the defining matrix is important. We found out that an educated choice of $l$ negative roots for the parametrization together with the positive simple roots leads to a nice differential equation and at the same time defines a sufficiently general element of the Lie algebra. Unfortunately for the groups of type $F_4$ and $E_6$ the linear differential equations for such elements are of enormous length. Therefore we keep in the case of $F_4$ and $E_6$ the defining matrix differential equation which has also an easy and nice shape. The basic idea for the realization is the application of an upper and lower bound criterion for the differential Galois group to our parameter equations and to show that both bounds coincide. An upper and lower bound criterion can be found in literature. Here we will only use the upper bound, since for the application of the lower bound criterion an important condition has to be satisfied. If the differential ground field is $C_1$, e.g., $C(z)$ with standard derivation, this condition is automatically satisfied. Since our differential ground field is purely differential transcendental over $C$, we have no information whether this condition holds or not. The main part of this thesis is the development of an alternative lower bound criterion and its application. We introduce the specialization bound. It states that the differential Galois group of a specialization of the parameter equation is contained in the differential Galois group of the parameter equation. Thus for its application we need a differential equation over $C(z)$ with given differential Galois group. A modification of a result from Mitschi and Singer yields such an equation over $C(z)$ up to differential conjugation, i.e. up to transformation to the required shape. The transformation of their equation to a specialization of our parameter equation is done for each of the above groups in the respective transformation lemma.
Resumo:
Bei der Arbeit an sicherheitsgerichteten Kommunikationsprotokollen stellten sich immer wieder die Fragen nach der Eignung von einzelnen Mechanismen der Protokolle, um den Gefährdungen entsprechende Maßnahmen zur Beherrschung entgegenzusetzen. Dabei waren durchweg die Anforderungen der IEC 61508 mit dem Safety Integrity Level 3 zu erfüllen. Die IEC 61508-2 ist mit 5 Zeilen Umfang für die wesentlichen Anforderungen an die sicherheitsgerichtete Kommunikation sehr kurz gehalten und die IEC 61784-3 war zu Beginn der Arbeiten noch nicht veröffentlicht. Aber die IEC 61784-3 stellt auch heute nur einen unvollständigen Kriterienkatalog zusammen. Insbesondere die in IEC 61508-2 geforderte quantitative Analyse wird in der IEC 61784-3 nicht ausreichend thematisiert. In bisherigen sicherheitsgerichteten Protokollen und den relevanten Normen des Anwendungsbereichs fanden die Gefährdungspotentiale, wie Masquerading und Adressierung in offenen Übertragungssystemen, absichtliche Unterminierung der Sicherheitsmechanismen und fehlerhafte Konfiguration keine ausreichende Beachtung und die Gefährdungen durch absehbaren Missbrauch, absehbare Fehlbedienung und unberechtigter Zugriff auf sichere Kommunikationseinrichtungen wurde nur in Randgebieten diskutiert. Hier zeigt die vorliegende Arbeit die Bedeutung dieser für den Einsatz von sicherheitsgerichteten Kommunikationsprotokollen im industriellen Umfeld auf und folgert daraus die entsprechenden Maßnahmen, die in der Verantwortung des Anwenders liegen, bzw. zum Teil auch durch Protokollmechanismen beherrscht werden können. Die Arbeit stellt einen umfassenden Gefährdungskatalog auf und bewertet nach diesem Katalog die am weitest verbreiteten sicherheitsgerichteten Kommunikationsprotokolle nach einem einheitlichen Maßstab. Weiter zeigt die vorgelegte Arbeit, dass auch ein existierendes Zertifikat gemäß IEC 61508 SIL3 nicht in jedem Fall ausreichend ist, um die Eignung eines Protokolls für den Einsatz gemäß dem aktuellen Stand der Normen zu bestätigen. Hervor zu heben ist insbesondere die quantitative Bewertung jeder einzelnen Maßnahme der Protokolle. Bislang wurde diese nur für die Beherrschung von verfälschten Nachrichten durchgeführt. Die Arbeit führt diese quantitative Bewertung der eingesetzten Maßnahmen systematisch durch und zeigt dabei, dass diese Bewertung dringend erforderlich ist, da die betrachteten öffentlichen Protokolle nicht die für SIL3 notwendige Güte für alle ihre Maßnahmen aufweisen, bzw. aufwiesen. Einer der Schwerpunkte dieser Arbeit ist die Definition von Verarbeitungsmodellen für die Berechnung der maximalen Reaktionszeit und der Worst-Case Reaktionszeit. Dazu wurde ein Modell aus 5 Komponenten erstellt, dass geeignet ist, die Reaktionszeit über ein Kommunikationssystem für die im industriellen Umfeld gebräuchlichen Anwendungen zu untersuchen. Diese 5 Komponenten, das Eingangsmodul, die Sicherheitssteuerung, die Kommunikation zwischen beiden, sowie das Ausgangsmodul und die Kommunikation zwischen diesem und der Sicherheitssteuerung. Anhand dieses Modells wurde die maximale Reaktionszeit definiert. Dies ist die Zeit, die von der Änderung eines physikalischen Eingangssignals der Eingangskomponente, bis zur zugehörigen Reaktion des physikalischen Ausgangssignals der Ausgangskomponente, über die Sicherheitssteuerung hinweg, benötigt wird. Die maximale Reaktionszeit betrachtet dabei den Fall, dass im gesamten System aus diesen 5 Komponenten kein Fehler eine Wirkung entfaltet. Die Worst-Case Reaktionszeiten der Protokolle sind auf Grund der verschiedenen Konzepte sehr differenziert zu betrachten. Erschwerend kommt hier noch hinzu, dass die im konkreten System erreichte minimale Worst-Case Reaktionszeit stark von der Implementierung des jeweiligen Herstellers abhängt. Ebenso problematisch ist die unterschiedliche Modellbildung der jeweiligen Protokoll-Organisationen. Es werden Fehlerausschlüsse gemacht, wie die Annahme, dass nur ein Fehler auftritt und dieser Fehler sich nicht auf die Verbindung zwischen Eingangsmodul und Sicherheitssteuerung und auf die Verbindung zwischen Sicherheitssteuerung und Ausgangsmodul gleichzeitig auswirken kann. Da für den sicherheitsgerichteten Einsatz die maximale Reaktionszeit mit Fehlern die relevante Betrachtungseinheit darstellt, wurden anhand des Modells die Worst-Case 1 und 2 Reaktionszeiten definiert. Die erste definiert die Zeit die eine Reaktion maximal benötigt, wenn im Kommunikationssystem eine Fehlerwirkung vorliegt und bei der zweiten wird angenommen, dass mehrere der 5 Komponenten von Fehlerwirkungen betroffen sein können. Um einen vertieften Einblick in die Thematik zu erhalten, wurde im Rahmen dieser Arbeit ein eigenes sicherheitsgerichtetes Kommunikationsprotokoll spezifiziert, entworfen und realisiert. Hierbei wurde besonderer Augenmerk auf die Wirksamkeit des Verfälschungsschutzes mittels CRCs für kurze Nachrichten gelegt und ebenso die Wirksamkeit gekoppelter CRCs betrachtet.
Amphiphile Verbindungen der 14. Gruppe - Synthese, Eigenschaften und Anwendungen von Organosilanolen
Resumo:
Im Rahmen dieser Dissertation wurde an der Darstellung stabiler, amphiphiler Silantriole gearbeitet. Es ist gelungen eine kontinuierliche Reihe sukzessive um CH2-Einheiten verlängerter Silantriole des Typs H3C(CH2)nC(CH3)2Si(OH)3 (n = 1-5) durch eine vierstufige Synthesesequenz ausgehend von n-Alkylbromiden herzustellen und zum Teil röntgenographisch zu untersuchen. Ihre oberflächenaktiven Eigenschaften in wässrigen Lösungen konnten erstmals mittels Oberflächenspannungsmessungen belegt werden. Durch gezielte Kondensationsreaktionen mit Trifluoressigsäure wurden ausgehend von den oben beschriebenen Silantriolen selektiv die entsprechenden Disiloxan-Tetrole erhalten und ebenfalls zum Teil durch Röntgenstrukturanalysen charakterisiert. Als weitere Kondensationsprodukte der Silantriole konnten die ersten Octasilsesquioxane mit tertiären Kohlenstoff-Substituenten durch Umsetzungen mit n-Bu4NF selektiv und in hohen Ausbeuten erhalten und ebenfalls röntgenographisch identifiziert werden. Es wurde an der Darstellung Aryl-substituierter Silantriole RSi(OH)3 (R = Mesityl-, Xylyl- und Tetramethyl-phenyl-) gearbeitet. Diese zeichnen sich jedoch durch ihre hohe Instabilität in Lösung und im Festkörper aus und konnten zum Teil nur zusammen mit ihren primären Kondensationsprodukten erhalten werden. Darüber hinaus wurden stabile Silandiole des Typs R(t-Bu)Si(OH)2 (R = n-Butyl und n-Pentyl) sowie das (o-CF3C6H4)2Si(OH)2 in hohen Ausbeuten und selektiv synthetisiert. Die Festkörpereigenschaften des (o-CF3C6H4)2Si(OH)2 sowie seiner Vorstufe (o-CF3C6H4)2SiCl2 konnten durch Kristallstrukturanalysen genauer untersucht werden. In der Arbeit wurden die ersten Anwendungen von Silanolen als Silan-Kupplungsreagenzien bei der Oberflächenmodifizierung von Glas beschrieben. Im Gegensatz zu gängigen säureassistierten Beschichtungen zeichnen sich diese Silanol-Beschichtungen durch eine deutlich höhere Hydrophobizität aus. Dies konnte durch Kontaktwinkel- und Zeta-Potential-Messungen bestätigt werden. Durch Röntgenreflektivitäts- und Sarfus-Messungen ist die Ausbildung von Monolagen im Falle von t-BuSi(OH)3-beschichteten Oberflächen plausibel. Die Oberflächenmorphologie der Silantriol-Beschichtungen wurde mittels AFM-Messungen untersucht. Die Si(OH)3-Funktion konnte in der vorliegenden Arbeit als ein neues Pharmakophor etabliert werden. Die Silantriole CySi(OH)3, TerSi(OH)3 und CH3CH2C(CH3)2Si(OH)3 (Cy = Cyclohexyl, Ter = Terphenyl) sind in der Lage das Enzym Acetylcholinesterase reversibel zu hemmen. Dabei zeigt das CySi(OH)3 mit 45 % relativ zur Kontrolle die höchste Inhibition.
Resumo:
Regionale Arbeitsmärkte unterscheiden sich erheblich hinsichtlich wesentlicher Kennzahlen wie der Arbeitslosenquote, des Lohnniveaus oder der Beschäftigungsentwicklung. Wegen ihrer Persistenz sind diese Unterschiede von hoher Relevanz für die Politik. Die wirtschaftswissenschaftliche Literatur liefert bereits theoretische Modelle für die Analyse regionaler Arbeitsmärkte. In der Regel sind diese Modelle aber nicht dazu geeignet, regionale Arbeitsmarktunterschiede endogen zu erklären. Das bedeutet, dass sich die Unterschiede regionaler Arbeitsmärkte in der Regel nicht aus den Modellzusammenhängen selbst ergeben, sondern „von außen“ eingebracht werden müssen. Die empirische Literatur liefert Hinweise, dass die Unterschiede zwischen regionalen Arbeitsmärkten auf die Höhe der regionalen Arbeitsnachfrage zurückzuführen sind. Die Arbeitsnachfrage wiederum leitet sich aus den Gütermärkten ab: Es hängt von der Entwicklung der regionalen Gütermärkte ab, wie viele Arbeitskräfte benötigt werden. Daraus folgt, dass die Ursachen für Unterschiede regionaler Arbeitsmärkte in den Unterschieden zwischen den regionalen Gütermärkten zu suchen sind. Letztere werden durch die Literatur zur Neuen Ökonomischen Geographie (NÖG) untersucht. Die Literatur zur NÖG erklärt Unterschiede regionaler Gütermärkte, indem sie zentripetale und zentrifugale Kräfte gegenüberstellt. Zentripetale Kräfte sind solche, welche hin zur Agglomeration ökonomischer Aktivität wirken. Im Zentrum dieser Diskussion steht vor allem das Marktpotenzial: Unternehmen siedeln sich bevorzugt an solchen Standorten an, welche nahe an großen Märkten liegen. Erwerbspersonen wiederum bevorzugen solche Regionen, welche ihnen entsprechende Erwerbsaussichten bieten. Beides zusammen bildet einen sich selbst verstärkenden Prozess, der zur Agglomeration ökonomischer Aktivität führt. Dem stehen jedoch zentrifugale Kräfte gegenüber, welche eine gleichmäßigere Verteilung ökonomischer Aktivität bewirken. Diese entstehen beispielsweise durch immobile Produktionsfaktoren oder Ballungskosten wie etwa Umweltverschmutzung, Staus oder hohe Mietpreise. Sind die zentripetalen Kräfte hinreichend stark, so bilden sich Zentren heraus, in denen sich die ökonomische Aktivität konzentriert, während die Peripherie ausdünnt. In welchem Ausmaß dies geschieht, hängt von dem Verhältnis beider Kräfte ab. Üblicherweise konzentriert sich die Literatur zur NÖG auf Unterschiede zwischen regionalen Gütermärkten und geht von der Annahme perfekter Arbeitsmärkte ohne Arbeitslosigkeit aus. Die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede kann die NÖG daher üblicherweise nicht erklären. An dieser Stelle setzt die Dissertation an. Sie erweitert die NÖG um Friktionen auf dem Arbeitsmarkt, um die Entstehung und Persistenz regionaler Arbeitsmarktunterschiede zu erklären. Sie greift dazu auf eine empirische Regelmäßigkeit zurück: Zahlreiche Studien belegen einen negativen Zusammenhang zwischen Lohn und Arbeitslosigkeit. In Regionen, in denen die Arbeitslosigkeit hoch ist, ist das Lohnniveau gering und umgekehrt. Dieser Zusammenhang wird als Lohnkurve bezeichnet. Auf regionaler Ebene lässt sich die Lohnkurve mithilfe der Effizienzlohntheorie erklären, die als theoretische Grundlage in der Dissertation Anwendung findet. Konzentriert sich nun die ökonomische Aktivität aufgrund der zentripetalen Kräfte in einer Region, so ist in diesem Zentrum die Arbeitsnachfrage höher. Damit befindet sich das Zentrum auf einer günstigen Position der Lohnkurve mit geringer Arbeitslosigkeit und hohem Lohnniveau. Umgekehrt findet sich die Peripherie auf einer ungünstigen Position mit hoher Arbeitslosigkeit und geringem Lohnniveau wieder. Allerdings kann sich die Lohnkurve in Abhängigkeit des Agglomerationsgrades verschieben. Das komplexe Zusammenspiel der endogenen Agglomeration mit den Arbeitsmarktfriktionen kann dann unterschiedliche Muster regionaler Arbeitsmarktdisparitäten hervorrufen. Die Dissertation zeigt auf, wie im Zusammenspiel der NÖG mit Effizienzlöhnen regionale Arbeitsmarktdisparitäten hervorgerufen werden. Es werden theoretische Modelle formuliert, die diese Interaktionen erklären und welche die bestehende Literatur durch spezifische Beiträge erweitern. Darüber hinaus werden die zentralen Argumente der Theorie einem empirischen Test unterworfen. Es kann gezeigt werden, dass das zentrale Argument – der positive Effekt des Marktpotentials auf die Arbeitsnachfrage – relevant ist. Außerdem werden Politikimplikationen abgeleitet und der weitere Forschungsbedarf aufgezeigt.
Resumo:
Hauptziel dieser Arbeit ist die Identifizierung, Verifizierung und Charakterisierung von Interaktionspartnern von HelF, einem Negativregulator der RNA-Interferenz in Dictyostelium discoideum (Popova et al. 2006). Es ist gelungen, die Interaktion von HelF und der 5‘ 3‘ Exonuklease Xrn1 nachzu-weisen, aber alle anderen Versuchen, bisher unbekannte Protein-Interaktionspartner zu identifizieren, schlugen fehl. Xrn1 ist in den Organismen D. melanogaster (Orban und Izaurralde 2005), C. elegans (Newbury und Woollard 2004) und A. thaliana (Gazzani et al. 2004) bereits als Regulator der RNA-Interferenz bekannt. Mit Aufreinigungen nach der TAP-Methode und mit dem Nanotrap wurde ebenfalls versucht, RNA-Interaktionspartner von HelF zu identifizieren. Es konnten in einigen Aufreinigungen putative, für HelF spezifische RNAs identifiziert werden, doch entweder es handelte sich nachweislich nicht um RNA oder die Reproduktion der Daten schlug trotz mehrfacher Versuche fehl. Bezüglich der zellulären Lokalisation von HelF und Xrn1 konnte gezeigt werden, dass HelF zusätzlich zur bekannten Lokalisation in Foci im Nukleus (Popova et al. 2006) vermutlich auch im Cytoplasma und dort angeordnet in mehreren Granula zu finden ist. Xrn1 ist nahezu ausschließlich im Cytoplasma lokalisiert, wo es in mehreren Foci organisiert ist. Es wird vermutet, dass es sich bei diesen Foci um Processing-Bodies (P-Bodies) handelt und dass möglicherweise Xrn1 und HelF in eben diesen P-Bodies co-lokalisieren. In der Entwicklung vom Einzeller zum mehrzelligen Organismus zeigen die Xrn1KO- und die HelFKO-Mutante jeweils einen eindeutigen Phänotyp, der vom Wildtyp abweicht. Die Phänotypen der beiden Mutanten unterscheiden sich deutlich voneinander. Beim Mischen von HelF-Knockout-Zellen mit grün fluoreszierenden Wildtyp-Zellen zeigt sich, dass beide Stämme innerhalb des sich entwickelnden Organismus an definierten Stellen lokalisieren. Entgegen den Erwartungen befinden sich die Zellen der Mutante in den Stadien „Finger“ und „Slug“ nicht hauptsächlich im vorderen Teil des Organismus, sondern sind auch im hinteren Teil, der später die Sporenmasse bildet, vertreten. Dies lässt vermuten, dass HelF-Knockout-Mutanten in gleichem Maße wie Wildtypzellen als Sporen in die nächste Generation übergehen. Weitere Mix-Experimente, in denen HelFKO-Zellen und Xrn1KO-Zellen mit grün fluoreszierenden Wildtypzellen gemischt wurden, belegen eindeutig, dass beide Knockoutmutanten in Konkurrenz zum Wildtyp bei der Generierung von Sporen und somit beim Übergang in die nächste Generation benachteiligt sind. Dies steht im Gegensatz zu den Ergebnissen der vorher beschriebenen Mix-Experimente, in denen der Organismus als Ganzes betrachtet wurde. Weiterhin konnte herausgefunden werden, dass Xrn1 ebenso wie HelF (Popova et al. 2006) eine Rolle als Negativregulator in der RNA-Interferenz innehat. Fraglich ist aber, ob HelF wie bisher angenommen auch Einfluss auf den Weg der Generierung von miRNAs nimmt, da in HelFKO für keinen der beiden miRNA-Kandidaten eine Hoch- bzw. Runterregulierung der reifen miRNAs im Vergleich zum Wildtyp beobachtet werden kann. Im Xrn1KO hingegen ist die reife miRNA ddi-mir-1176 im Vergleich zum Wildtyp hochreguliert. In Bezug auf die Generierung von siRNAs konnte herausgefunden werden, dass Xrn1 und HelF im Fall der Generierung von Skipper siRNAs regulierend eingreifen, dass aber nicht alle siRNAs von der negativen Regulierung durch HelF und Xrn1betroffen sind, was am Beispiel der DIRS-1-siRNAs belegt werden kann. Das von B. Popova entwickelte Modell (Popova 2005) bezüglich der Rolle von HelF in der RNA-Interferenz wurde basierend auf den neu gewonnenen Daten weiterentwickelt und um Xrn1 ergänzt, um die Funktionen von HelF und Xrn1 als Antagonisten der RNA-Interferenz näher zu beleuchten. Literatur: Gazzani, S., T. Lawrenson, et al. (2004). "A link between mRNA turnover and RNA interference in Arabidopsis." Science 306(5698): 1046-8. Newbury, S. and A. Woollard (2004). "The 5'-3' exoribonuclease xrn-1 is essential for ventral epithelial enclosure during C. elegans embryogenesis." Rna 10(1): 59-65. Orban, T. I. and E. Izaurralde (2005). "Decay of mRNAs targeted by RISC requires XRN1, the Ski complex, and the exosome." Rna 11(4): 459-69. Popova, B. (2005). HelF, a suppressor of RNAi mediated gene silencing in Dictyostelium discoideum. Genetik. Kassel, Universität Kassel. PhD: 200. Popova, B., M. Kuhlmann, et al. (2006). "HelF, a putative RNA helicase acts as a nuclear suppressor of RNAi but not antisense mediated gene silencing." Nucleic Acids Res 34(3): 773-84.
Resumo:
Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.
Resumo:
Extensive grassland biomass for bioenergy production has long been subject of scientific research. The possibility of combining nature conservation goals with a profitable management while reducing competition with food production has created a strong interest in this topic. However, the botanical composition will play a key role for solid fuel quality of grassland biomass and will have effects on the combustion process by potentially causing corrosion, emission and slagging. On the other hand, botanical composition will affect anaerobic digestibility and thereby the biogas potential. In this thesis aboveground biomass from the Jena-Experiment plots was harvested in 2008 and 2009 and analysed for the most relevant chemical constituents effecting fuel quality and anaerobic digestibility. Regarding combustion, the following parameters were of main focus: higher heating value (HHV), gross energy yield (GE), ash content, ash softening temperature (AST), K, Ca, Mg, N, Cl and S content. For biogas production the following parameters were investigated: substrate specific methane yield (CH4 sub), area specific methane yield (CH4 area), crude fibre (CF), crude protein (CP), crude lipid (CL) and nitrogen-free extract (NfE). Furthermore, an improvement of the fuel quality was investigated through applying the Integrated generation of solid Fuel and Biogas from Biomass (IFBB) procedure. Through the specific setup of the Jena-Experiment it was possible to outline the changes of these parameters along two diversity gradients: (i) species richness (SR; 1 to 60 species) and (ii) functional group (grasses, legumes, small herbs and tall herbs) presence. This was a novel approach on investigating the bioenergy characteristic of extensive grassland biomass and gave detailed insight in the sward-composition¬ - bioenergy relations such as: (i) the most relevant SR effect was the increase of energy yield for both combustion (annual GE increased by 26% from SR8→16 and by 65% from SR8→60) and anaerobic digestion (annual CH4 area increased by 22% from SR8→16 and by 49% from SR8→60) through a strong interaction of SR with biomass yield; (ii) legumes play a key role for the utilization of grassland biomass for energy production as they increase the energy content of the substrate (HHV and CH4 sub) and the energy yield (GE and CH4 area); (iii) combustion is the conversion technique that will yield the highest energy output but requires an improvement of the solid fuel quality in order to reduce the risk of corrosion, emission and slagging related problems. This was achieved through applying the IFBB-procedure, with reductions in ash (by 23%), N (28%), K (85%), Cl (56%) and S (59%) and equal levels of concentrations along the SR gradient.
Resumo:
Der Startabschnitt im Schwimmen stellt insbesondere in den Sprintwettbewerben über 50m und 100m eine leistungsdeterminierende Größe dar. Gerade in den letzten Jahren ist das Aufkommen von neuen Starttechniken, die zu einer Optimierung der Startleistung führen sollen, zu beobachten. Ziel der Dissertation ist es, anhand einer kinematischen und dynamischen Analyse des Starts, Aussagen über die wesentlichen Einflussfaktoren auf die Leistung zu treffen. Hierzu wird eine biomechanische Analyse von Grab- und Trackstarts unter Einbeziehung der Eintauch- und Übergangsphase durchgeführt. Für die Entwicklung von Trainingsempfehlungen sind solche Zusammenhangsanalysen unerlässlich. Im theoretischen Teil der Dissertation wird die morphologische Phasenstruktur der Startbewegung im Schwimmen thematisiert. Hierbei werden unterschiedliche Modelle vorgestellt und miteinander verglichen. Durch den Vergleich der publizierten Studien zum Schwimmstart können sowohl Aussagen zu den leistungsrelevanten kinematischen und den dynamischen Kennwerten der Startbewegung zusammengefasst werden als auch Gemeinsamkeiten und Unterschiede in der Untersuchungs-methodik aufdeckt und in Relation zu der eigenen Studie gestellt werden. Im methodischen Teil wird sich zunächst mit Problemfeldern in der Datenerhebung (Berechnung der Linsenfehler und der Genauigkeit bei der Bestimmung unterschiedlicher Erhebungsmethoden der Abfluggeschwindigkeit) auseinander gesetzt. Weiterhin wird eine Methodenbeschreibung des eingesetzten ABKuS-Verfahrens beschrieben. Hierbei handelt es sich um ein selbstentwickeltes Berechnungsverfahren zur Bestimmung von Körpersegmentkoordinaten unter unscharfen Sichtbedingungen. Widrige Aufnahmebedingungen stellen insbesondere für markerlose kinematische Analysen ein Problem dar. Dies gilt insbesondere für den Eintauchvorgang beim Schwimmstart, da hier durch das Mitreißen von Luftteilchen erhebliche Sichtbehinderungen auftreten. Aus diesem Grund gibt es bisher für solche markerlosen Analysen noch keine etablierten Verfahren gibt. Für die eigentliche Hauptuntersuchung konnte eine leistungsstarke Probandenstichprobe gewonnen werden. Gegenstand der zentralen Messung war der Startsprung, den die Probanden innerhalb eines Sprinttests über 25m bzw. 50m durchführten. Die Bodenreaktionskräfte werden dabei durch den mobilen Messstartblock erhoben. Gleichzeitig werden die Blockaktionen und die Flugphase durch eine digitale Kamera und die Eintauschbewegung durch eine zweite Kamera in einem Unterwassergehäuse aufgezeichnet. Die so ermittelten umfangreichen Daten gehen in die weiteren statistischen Analysen ein. Wesentlich für die statistischen Analysen ist die Einteilung der Schwimmer und Schwimmerinnen hinsichtlich ihrer Starttechnik. Bei der Startbewegung wurde zunächst zwischen einem Track- und einem Grabstart unterschieden. Weiter wurde dann eine Einteilung des Trackstarts hinsichtlich der Ausgangsposition vorgenommen. Ausgehend von dieser Einteilung wurde der Einfluss der Starttechnik auf die Kennwerte des Startverhaltens analysiert. Die Verlaufskurven der Bodenreaktionskräfte wurden mit einer Hauptkomponentenanalyse (PCA) hinsichtlich der funktionellen und zufälligen Variation in den zeitabhängigen, koordinativen Mustern analysiert. Durch eine Clusteranalyse konnten unterschiedliche Kraftverläufe in der Anschwung- und Absprungphase identifiziert werden. Zur Bestimmung der relevanten Einflussfaktoren in der Eintauchphase wurde eine Hauptkomponentenanalyse mit einer rotierten Komponentenmatrix durchgeführt. Darüberhinaus wurden mittels einer Clusteranalyse unterschiedliche Eintauchstrategien aufgedeckt. Die komplexen Zusammenhänge des Startverhaltens wurden auf Basis theoretisch abgeleiteter Erklärungsmodelle überprüft. Hierbei kamen Strukturgleichungsmodelle zum Einsatz. Die Diskussion beinhaltet das Aufzeigen von Unterschieden bzw. die Erweiterung des Wissensstandes auf Basis der Forschungsergebnisse im Vergleich zu international anerkannten Forschungsarbeiten. Dabei wird auf die besondere Bedeutung der Eintauchphase, der in der bisherigen Forschung wenig Beachtung geschenkt wurde, hingewiesen.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
Bei der Rückführung von Kurzumtriebsplantagen (KUP) in konventionelle landwirtschaftliche Nutzung erfolgt zur Saatbettvorbereitung für die Folgekulturen eine intensive Bodenbearbeitung, um Wurzeln und Erntereste zu zerkleinern und in den Boden einzuarbeiten. Dies erhöht einerseits die Mineralisierung der unter KUP akkumulierten organischen Bodensubstanz (OBS), andererseits werden dem Boden hohe Mengen an Kohlenstoff (C) mit den Ernteresten zugeführt. In dieser Arbeit wurde an den Standorten Georgenhof Pappel, Georgenhof Weide und Wachtum Pappel in einem Feldversuch untersucht, wie sich unterschiedliche Bodenbearbeitungstiefen von 5, 15 und 30 cm während der Rückführung der langjährig bewirtschafteten KUPs in Acker- und Grünlandnutzung auf die C-Dynamik im Boden auswirken. Im Mittelpunkt stand dabei die Überprüfung der Annahme, ob durch eine reduzierte Bodenbearbeitung und eine nachfolgende Grünlandnutzung die Mineralisierung der OBS gemindert werden kann. Die nach der letzten Holzernte auf den Flächen verbliebenen und in den Boden eingearbeiteten oberirdischen Erntereste führten dem Boden, neben der in der zerkleinerten Wurzelbiomasse gespeicherten C-Menge von 1-9 t C ha-1, zusätzlich zwischen 12 und 17 t C ha-1 zu. Der Anstieg der freien, leichten organischen Fraktion des Bodens direkt nach dem Umbruch der Flächen sowie im Zuge der Bodenbearbeitung verfügbar gewordene leicht abbaubare organische Verbindungen, steigerten die mikrobielle Aktivität. Dies führte trotz der intensiven Bodenbearbeitung zu einer Erhöhung des mit Makroaggregaten assoziierten C nach dem Fräsen der Flächen. Die erneute Bodenbearbeitung der Ackerparzellen ein Jahr nach dem Umbruch führte an allen Standorten und in allen Bearbeitungstiefen durch die Zerstörung von Makroaggregaten jedoch zu einer Abnahme des C in dieser Fraktion. Demgegenüber zeigte sich durch die ausbleibende Bodenbearbeitung unter Grünlandnutzung auf beiden Flächen am Georgenhof eine bessere Stabilisierung des C in den Makroaggregaten. Am Standort Wachtum nahm der C in der Makroaggregatfraktion auch unter Grünland ab, da die Aggregierung und somit auch die physikalische Stabilisierung der organischen Substanz in diesem sandigeren Boden gering ist. Dies spiegelte sich in Verlusten von 10% in der leichten organischen Fraktion wider. Die mikrobielle Biomasse nahm innerhalb eines Jahres an allen Standorten ab, verursacht durch die abnehmende Verfügbarkeit der organischen Substanz, was sich in gesunkenen Cmik/Corg Verhältnisse niederschlug. Dennoch hat ein Jahr nach dem Umbruch der KUPs die in den Ernteresten gespeicherte C Menge auf allen Flächen im Zuge des fortschreitenden mikrobiellen Abbaus um bis zu 23 t C ha-1 abgenommen. Da sich keine Änderung in der Gesamtkohlenstoffmenge des Mineralbodens feststellen ließ, wurden mögliche Mineralisationsverluste der OBS durch Abbauprodukte der Erntereste ausgeglichen. Am Standort Georgenhof Weide zeigte sich dabei in den tiefen Fräsvarianten eine geringere Abnahme der in den Ernteresten gespeicherten C-Menge gegenüber den flachen Fräsvarianten. Ebenso deutete ein höheres C/N Verhältnis der Erntereste unter Grünland gegenüber Ackernutzung auf allen drei Flächen auf einen verlangsamten Abbau der Erntereste hin. In einem Inkubationsversuch im Labor wurde das hohe N-Immobilisierungspotential der eingearbeiteten Kronen- und Wurzelreste insbesondere zu Abbaubeginn der Erntereste nachgewiesen. Eine ansteigende N-Immobilisierung nach einer zusätzlichen N-Gabe deutete an, dass eine N-Düngung im Feld möglicherweise erst nach Abbau der leicht verfügbaren Verbindungen der Erntereste empfehlenswert ist. Höhere Ergosterol/Cmik Verhältnisse nach Einarbeitung der Erntereste zeigten den gestiegenen Anteil an saprotrophen Pilzen in der mikrobiellen Gemeinschaft an. Ein Jahr nach der Rückführung der KUPs in landwirtschaftliche Nutzung deuteten die C-Verluste aus den labilen Bodenfraktionen erste Verluste des organischen Kohlenstoffs des Mineralbodens an. Allerdings ließ sich noch kein eindeutiger Einfluss der unterschiedlichen Frästiefen oder Nachnutzungen auf die C-Fraktionen im Mineralboden feststellen, so dass sich im Hinblick auf die anfangs gestellte Annahme einer verringerten C-Mineralisierung durch eine reduzierte Bodenbearbeitung noch keine Aussage treffen lässt.
Resumo:
In dieser Arbeit wurde ein gemischt-ganzzahliges lineares Einsatzoptimierungsmodell für Kraftwerke und Speicher aufgebaut und für die Untersuchung der Energieversorgung Deutschlands im Jahre 2050 gemäß den Leitstudie-Szenarien 2050 A und 2050 C ([Nitsch und Andere, 2012]) verwendet, in denen erneuerbare Energien einen Anteil von über 85 % an der Stromerzeugung haben und die Wind- und Solarenergie starke Schwankungen der durch steuerbare Kraftwerke und Speicher zu deckenden residualen Stromnachfrage (Residuallast) verursachen. In Szenario 2050 A sind 67 TWh Wasserstoff, die elektrolytisch aus erneuerbarem Strom zu erzeugen sind, für den Verkehr vorgesehen. In Szenario 2050 C ist kein Wasserstoff für den Verkehr vorgesehen und die effizientere Elektromobilität hat einen Anteil von 100% am Individualverkehr. Daher wird weniger erneuerbarer Strom zur Erreichung desselben erneuerbaren Anteils im Verkehrssektor benötigt. Da desweiteren Elektrofahrzeuge Lastmanagementpotentiale bieten, weisen die Residuallasten der Szenarien eine unterschiedliche zeitliche Charakteristik und Jahressumme auf. Der Schwerpunkt der Betrachtung lag auf der Ermittlung der Auslastung und Fahrweise des in den Szenarien unterstellten ’Kraftwerks’-parks bestehend aus Kraftwerken zur reinen Stromerzeugung, Kraft-Wärme-Kopplungskraftwerken, die mit Wärmespeichern, elektrischen Heizstäben und Gas-Backupkesseln ausgestattet sind, Stromspeichern und Wärmepumpen, die durch Wärmespeicher zum Lastmanagment eingesetzt werden können. Der Fahrplan dieser Komponenten wurde auf minimale variable Gesamtkosten der Strom- und Wärmeerzeugung über einen Planungshorizont von jeweils vier Tagen hin optimiert. Das Optimierungsproblem wurde mit dem linearen Branch-and-Cut-Solver der software CPLEX gelöst. Mittels sogenannter rollierender Planung wurde durch Zusammensetzen der Planungsergebnisse für überlappende Planungsperioden der Kraftwerks- und Speichereinsatz für die kompletten Szenariojahre erhalten. Es wurde gezeigt, dass der KWK-Anteil an der Wärmelastdeckung gering ist. Dies wurde begründet durch die zeitliche Struktur der Stromresiduallast, die wärmeseitige Dimensionierung der Anlagen und die Tatsache, dass nur eine kurzfristige Speicherung von Wärme vorgesehen war. Die wärmeseitige Dimensionierung der KWK stellte eine Begrenzung des Deckungsanteils dar, da im Winter bei hoher Stromresiduallast nur wenig freie Leistung zur Beladung der Speicher zur Verfügung stand. In den Berechnungen für das Szenario 2050 A und C lag der mittlere Deckungsanteil der KWK an der Wärmenachfrage von ca. 100 TWh_th bei 40 bzw. 60 %, obwohl die Auslegung der KWK einen theoretischen Anteil von über 97 % an der Wärmelastdeckung erlaubt hätte, gäbe es die Beschränkungen durch die Stromseite nicht. Desweiteren wurde die CO2-Vermeidungswirkung der KWK-Wärmespeicher und des Lastmanagements mit Wärmepumpen untersucht. In Szenario 2050 A ergab sich keine signifikante CO2-Vermeidungswirkung der KWK-Wärmespeicher, in Szenario 2050 C hingegen ergab sich eine geringe aber signifikante CO2-Einsparung in Höhe von 1,6 % der Gesamtemissionen der Stromerzeugung und KWK-gebundenen Wärmeversorgung. Das Lastmanagement mit Wärmepumpen vermied Emissionen von 110 Tausend Tonnen CO2 (0,4 % der Gesamtemissionen) in Szenario A und 213 Tausend Tonnen in Szenario C (0,8 % der Gesamtemissionen). Es wurden darüber hinaus Betrachtungen zur Konkurrenz zwischen solarthermischer Nahwärme und KWK bei Einspeisung in dieselben Wärmenetze vorgenommen. Eine weitere Einschränkung der KWK-Erzeugung durch den Einspeisevorrang der Solarthermie wurde festgestellt. Ferner wurde eine untere Grenze von 6,5 bzw. 8,8 TWh_th für die in den Szenarien mindestens benötigte Wasserstoff-Speicherkapazität ermittelt. Die Ergebnisse dieser Arbeit legen nahe, das technisch-ökonomische Potential von Langzeitwärmespeichern für eine bessere Integration von KWK ins System zu ermitteln bzw. generell nach geeigneteren Wärmesektorszenarien zu suchen, da deutlich wurde, dass für die öffentliche Wärmeversorgung die KWK in Kombination mit Kurzzeitwärmespeicherung, Gaskesseln und elektrischen Heizern keine sehr effektive CO2 -Reduktion in den Szenarien erreicht. Es sollte dabei z.B. untersucht werden, ob ein multivalentes System aus KWK, Wärmespeichern und Wärmepumpen eine ökonomisch darstellbare Alternative sein könnte und im Anschluss eine Betrachtung der optimalen Anteile von KWK, Wärmepumpen und Solarthermie im Wärmemarkt vorgenommen werden.