1000 resultados para Ziel


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Land use has become a force of global importance, considering that 34% of the Earth’s ice-free surface was covered by croplands or pastures in 2000. The expected increase in global human population together with eminent climate change and associated search for energy sources other than fossil fuels can, through land-use and land-cover changes (LUCC), increase the pressure on nature’s resources, further degrade ecosystem services, and disrupt other planetary systems of key importance to humanity. This thesis presents four modeling studies on the interplay between LUCC, increased production of biofuels and climate change in four selected world regions. In the first study case two new crop types (sugarcane and jatropha) are parameterized in the LPJ for managed Lands dynamic global vegetation model for calculation of their potential productivity. Country-wide spatial variation in the yields of sugarcane and jatropha incurs into substantially different land requirements to meet the biofuel production targets for 2015 in Brazil and India, depending on the location of plantations. Particularly the average land requirements for jatropha in India are considerably higher than previously estimated. These findings indicate that crop zoning is important to avoid excessive LUCC. In the second study case the LandSHIFT model of land-use and land-cover changes is combined with life cycle assessments to investigate the occurrence and extent of biofuel-driven indirect land-use changes (ILUC) in Brazil by 2020. The results show that Brazilian biofuels can indeed cause considerable ILUC, especially by pushing the rangeland frontier into the Amazonian forests. The carbon debt caused by such ILUC would result in no carbon savings (from using plant-based ethanol and biodiesel instead of fossil fuels) before 44 years for sugarcane ethanol and 246 years for soybean biodiesel. The intensification of livestock grazing could avoid such ILUC. We argue that such an intensification of livestock should be supported by the Brazilian biofuel sector, based on the sector’s own interest in minimizing carbon emissions. In the third study there is the development of a new method for crop allocation in LandSHIFT, as influenced by the occurrence and capacity of specific infrastructure units. The method is exemplarily applied in a first assessment of the potential availability of land for biogas production in Germany. The results indicate that Germany has enough land to fulfill virtually all (90 to 98%) its current biogas plant capacity with only cultivated feedstocks. Biogas plants located in South and Southwestern (North and Northeastern) Germany might face more (less) difficulties to fulfill their capacities with cultivated feedstocks, considering that feedstock transport distance to plants is a crucial issue for biogas production. In the fourth study an adapted version of LandSHIFT is used to assess the impacts of contrasting scenarios of climate change and conservation targets on land use in the Brazilian Amazon. Model results show that severe climate change in some regions by 2050 can shift the deforestation frontier to areas that would experience low levels of human intervention under mild climate change (such as the western Amazon forests or parts of the Cerrado savannas). Halting deforestation of the Amazon and of the Brazilian Cerrado would require either a reduction in the production of meat or an intensification of livestock grazing in the region. Such findings point out the need for an integrated/multicisciplinary plan for adaptation to climate change in the Amazon. The overall conclusions of this thesis are that (i) biofuels must be analyzed and planned carefully in order to effectively reduce carbon emissions; (ii) climate change can have considerable impacts on the location and extent of LUCC; and (iii) intensification of grazing livestock represents a promising venue for minimizing the impacts of future land-use and land-cover changes in Brazil.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die spektrale Zusammensetzung von Licht ändert sich, wenn es mit gasförmiger, flüssiger oder fester Materie d.h. mit Ionen, Atomen, Molekülen, Atom- und Molekülverbänden und amorphen oder kristallinen Festkörpern interagiert. Spektroskopische Messungen des Lichts nach der Wechselwirkung geben Aufschluss über die Eigenschaften der zu untersuchenden Materie [2]. Viele der heute noch nicht realisierbaren Ideen und Konzepte in den verschiedensten Anwendungsfeldern der Sensorik benötigen aber für ihre Umsetzung extrem miniaturisierte Spektrometer als Kernbestandteil der Sensoren. Ziel ist es jedoch nicht, dem Anwender dieser Sensoren Informationen über das Spektrum zu liefern, sondern die ausgewerteten spektralen Information als Indikator zum Handeln zu nutzen. Derartige intelligente Sensoren werden in Zukunft unter anderem dazu beitragen intelligente persönliche Umgebungen (engl.: smart rooms, smart buildings, smart cities, samrt personal environments) zu entwerfen und zu realisieren. Grundvoraussetzung für die Erschließung der verschiedenen Anwendungsgebiete sind Spektrometer, die die Anforderungen an niedrige Kosten, hohe Stückzahlen sowie geringe Größe und geringes Gewicht besser als verfügbare Hochleistungsgitter-Spektrometer erfüllen, die zwar bereits in den Bereich weniger Zentimeter miniaturisiert wurden, aber immer noch makroskopisch sind. Ziel dieser Arbeit ist es, zu zeigen, dass es möglich ist, ein Fabry-Pérot Filterfeld herzustellen, welches später den Kern eines Nanospektrometers darstellen soll, bei dem die unterschiedlichen Kavitäten in einem einzigen Schritt mithilfe der Nanoimprint-Technologie erzeugt werden. Angesichts des Forschungsdefizits hinsichtlich der Nutzung der Nanoimprint-Technologie zur Fertigung von in ihrer Höhe exakten Strukturen werden in der vorliegenden Arbeit zwei Nanoimprint-Technologien untersucht: Das Heißprägen und das UV-Prägen. Das Ergebnis dieser Arbeit ist ein Fabry-Pérot Filterfeld, welches mittels geeigneter Nanoimprint-Technologie hergestellt wurde und demonstriert, dass ein Nanospektrometer auf der Basis eines Feldes von Filtern technisch realisierbar ist. Dazu werden im praktischen Teil dieser Arbeit (Untersuchung der Prägeprozesse) verschiedene technologische Methoden und Maschinen vorgestellt und die damit erreichten Ergebnisse hinsichtlich der Fabry-Pérot-Filterfelder verglichen. Die hergestellten Filterfelder wurden systematisch spektral vermessen. Diese Analyse zeigt 64 Transmissionsbänder der einzelnen Filter eines Feldes. Ein Vergleich mit publizierten Arbeiten des Standes der Wissenschaft und Technik zeigt, dass im Rahmen der vorliegenden Arbeit eine deutliche Verbesserung erreicht wurde. So konnte eine drastische Steigerung der transmittierten Lichtintensität der Filter erzielt werden und eine Nanoimprint-Methode identifiziert werden, mit welcher es möglich ist, einen Demonstrator herzustellen. Aufgrund der im Rahmen einer ausführlichen Charakterisierung ermittelten sehr guten experimentellen Ergebnisse des Demonstrators kann ein Nanospektrometer mit dem Fabry-Pérot-Filterfeld als Kernbestandteil in Zukunft hergestellt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bauchspeicheldrüsenkrebs ist die vierthäufigste Krebstodesursache in Deutschland. Durch die tiefe Lage des Organs im Körperinneren und das späte Auftreten von Symptomen erfolgt die Diagnose meist zu einem sehr späten Zeitpunkt, zu dem eine Resektion des Tumors in 80% der Fälle nicht mehr möglich ist. Die Hälfte der Patienten verstirbt bereits im ersten Jahr nach Diagnosestellung. Nach heutiger Erkenntnis entwickeln sich Adenokarzinome der Bauchspeicheldrüse über schrittweise histologische Veränderungen, die sogenannten PanIN Läsionen (pancreatic intraepithelial neoplasia). Bis heute fehlen jedoch klinisch einsetzbare Parameter für die Früherkennung des Karzinoms und seiner Vorstufen. Bisher ist nicht vollständig geklärt, welche molekularen Veränderungen hierbei eine wesentliche Rolle spielen. Das Ziel der vorliegenden Arbeit ist, die molekular- und zytogenetische Mutationsinzidenz und -Sequenz im Verlauf der neoplastischen Progression in der PanIN-Sequenz aufzuklären. Unter Anwendung der Fluoreszenz-in-situ-Hybridisierung (FISH) wird weiterführend die Frage beantwortet, ob sich der Nachweis von zytogenetischen Veränderungen in Zellen, die endoskopisch aus dem Pankreassekret gewonnen wurden, als neuartiger Ansatz für eine Frühdiagnostik nutzen lassen. Die molekulargenetischen Analysen zeigen, dass die PanIN-Läsionen aus Geweben mit chronischer Pankreatitis denen aus Geweben mit Karzinomen gleichzusetzen sind. Veränderungen in der Anzahl einzelner Chromosomen, sowie Basenmutationen finden sich bereits in den frühesten Gangläsionen. Die diffuse Verteilung von Genmutationen lässt einen mutagenen Feldeffekt vermuten, in welchem endogene (z.B. Pankreasenzyme, oxidativer Stress) und/oder exogene (z.B. Nikotin, Alkohol) Noxen auf verschiedene Pankreasgänge während einer langen Zeit einwirken. Auf der Basis der erhaltenen Daten kann angenommen werden, dass die prä-neoplastischen Läsionen in Geweben mit chronischer Pankreatitis eine Progression durchlaufen, in der sich sporadische Defekte wie Basenmutationen und Mitosefehler (Aneuplodien) akkumulieren. Die biologische Relevanz für die Tumorentstehung sollte jedoch immer im klinischen Kontext betrachtet werden. In Kombination mit weiteren Parametern (z.B. Alter, Dauer der Pankreatitis) könnte dies eine Möglichkeit bieten, das Risiko für die Entstehung eines Karzinoms individuell zu bestimmen und somit Patienten frühzeitig genug vor der Manifestation eines Tumors einer (Teil-)Resektion des Organs zuzuführen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Arbeit war es, die Bedeutung des C und N mit Herkunft aus der Rhizodeposition für das mikrobielle Wachstum und den C- und N-Umsatz in der Rhizosphäre in Abhängigkeit von der Entfernung zur Wurzel zu untersuchen. Dazu wurde als wesentliche methodische Voraussetzung ein künstliches Rhizosphärensystem entwickelt, um die durch die Rhizodeposite induzierten Prozesse an der Grenzfläche zwischen Wurzeloberfläche und Boden zu untersuchen. Dieses eingesetzte Rhizosphärensystem wurde nach einem Vorbild eines in schon vielfältigen Untersuchungen der Rhizosphäre eingesetzten Systems von GAHOONIA und NIELSEN (1991) konzipiert. Zur Verfolgung der pflanzlichen C- und N-Rhizodeposition im Boden wurden 13C- und 15N-Tracer-Isotopen-Techniken zur Isotopenmarkierung der Testpflanzen eingesetzt. Zur Probenahme des Rhizosphärenbodens in räumlichen Abstand zur künstlichen Rhizoplane wurde eine Schneidvorrichtung nach FITZ et al. (2003) eingesetzt, die es ermöglicht frische Bodenproben in definiertem Abstand zur künstlichen Rhizoplane zu schneiden. Das Rhizosphärensystem wurde in 13C- und 15N-Doppelmarkierungsexperimenten mit Lolium perenne, Triticum aestivum und Avena sativa eingesetzt.Das unterschiedliche Ansprechen der mikrobiellen Gemeinschaft auf den Substrateintrag in unterschiedlicher Entfernung zur Wurzel zeigte komplexe Wechselwirkungen in Bezug auf das mikrobielle Wachstum, den mikrobiellen Umsatz, den Substrateintrag aus der Rhizodeposition und den stimulierten Abbau der nativen organischen Bodensubstanz. Der Eintrag von Rhizodepositen stellt daher eine bedeutende Funktion in der Regulation der mikrobiellen Biomasse und der Prozesse des Umsatzes der organischen Bodensubstanz während und wahrscheinlich bis nach der Vegetationsperiode dar. Die simultane Verfolgung von Rhizodepositions-C und -N im Boden und deren Funktionen innerhalb der Rhizosphäre, gerade im Hinblick auf die mikrobielle Biomasse und den Umsatz der organischen Substanz im Boden, führt zu einem besseren Verständnis der komplexen wechselseitigen Prozesse zwischen Pflanze und Boden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Studie war es, zu untersuchen, ob sich die relative Position Nordhessens im Wettbewerb mit den umliegenden Regionen seit der im Jahr 2002 durchgeführten Studie im Hinblick auf Indikatoren für die wissensbasierte Entwicklung verbessert hat. Als Ergebnis kann festgehalten werden, dass sich Nordhessen in einem Aufholprozess befindet: Alle relevanten wissensbasierten Indikatoren, wie etwa die Anzahl der Schulabgänger mit Hochschulreife oder der Anteil der Unternehmen, die der Hoch- oder Spitzentechnologie zuzuordnen sind, haben sich positiv entwickelt. In gleicher Weise haben sich alle Indikatoren auch in Relation zur jeweiligen Ausprägung der Nachbarregionen positiv erändert. Relativ gesehen hat sich die Position der Region also verbessert. Absolut betrachtet bleibt es aber dabei, dass die Region in Hinblick auf zentrale Indikatoren der wissensbasierten Entwicklung einen deutlichen Rückstand hat. So liegt die Hochqualifiziertenquote weiterhin 25%, die Anzahl der Unternehmen der Hochtechnologie 50% unter dem Durchschnitt der von uns untersuchten Vergleichsregionen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der vorliegende Bericht soll die Ergebnisse einer Untersuchung der wirtschaftsgeschichtlichen Entwicklung der Regionen Kassel/Nordhessen und Jena/Thüringen zusammenfassen. Als leitende Frage hinter der Untersuchung steht das Problem, inwieweit das gegenwärtige Innovationspotential der beiden Regionen von den Gegebenheiten ihrer Geschichte bestimmt wird. Dabei sollen mögliche Hinweise auf die geschichtlichen Grundlagen heutiger Unterschiede in den Untersuchungsregionen in den Blick gerückt werden. Von besonderem Interesse ist in diesem Zusammenhang, dass es sich sowohl in Bezug auf Kassel als auch auf Jena um klassische Industriestädte handelt, die darüber hinaus entscheidend durch das Vorhandensein eines Großunternehmens geprägt worden sind. Ziel der Untersuchung war es, in der Geschichte vor allem diejenigen Momente auszumachen, die für die Entstehung von regionalen Innovationssystemen förderlich oder hemmend wirksam geworden sind. Der Untersuchung liegt ein kulturgeschichtlicher Ansatz zugrunde, der die Wirtschaftsgeschichte zwar in den Vordergrund stellt, diese aber als einen Faktor unter anderen begreift. So werden politische und kulturelle sowie alltags- und mentalitätsgeschichtliche Aspekte einbezogen. Der zeitliche Untersuchungsrahmen im engeren Sinne liegt zwischen dem ausgehenden 19. Jahrhundert und der Wiedervereinigung der beiden deutschen Staaten im 20. Jahrhundert. Zwar war es notwendig, auch den Zeitraum vor der Epochenzäsur der „Zweiten Wirtschaftlichen Revolution“ einzubeziehen, doch ist mit dieser ein sinnvoller Ansatzpunkt für eine ausführlichere Untersuchung gegeben. Der Bericht gliedert sich in einen ersten Abschnitt, der sich mit der Region Kassel/Nordhessen befasst, und einen zweiten Abschnitt zur Region Jena/Thüringen. Zuerst werden jeweils die politisch-historischen Rahmenbedingung und die industrielle Entwicklung der Region erörtert. Es folgt die Betrachtung der Unternehmensentwicklung der jeweiligen Großbetriebe vor dem geschichtlichen Hintergrund. Deren Wechselwirkung mit Politik und Kultur wird nachgegangen, bevor dann die Frage nach den Folgen für das regionale Innovationspotential gestellt wird. Hier können nur einige Mutmaßungen angestellt werden, ein sicheres Urteil ist mit den vorliegenden Kenntnissen nicht möglich. Abschließend folgt ein Vergleich der Regionen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit behandelt die numerische Simulation von Rührbehältern und Flotationszellen mit Hilfe kommerzieller Software basierend auf einer Finite-Volumen-Methode. Ziel der Untersuchungen ist es, ein Verfahren zu entwickeln, das eine Beurteilung der Anlagen in Abhängigkeit verschiedener geometrischer und strömungsmechanischer Parameter ermöglicht und so unterstützend zur Prozessauslegung beiträgt. An zwei einfachen Geometrien (Strömungsrohr, Scheibenrührer) werden grundsätzliche Parameter und Fragestellungen erläutert, welche für die Simulation von Bedeutung sind und der Verifzierung des eingesetzten Programmpakets dienen. Die Betrachtung industriell eingesetzter Flotationsmaschinen erfolgt beispielhaft an zwei Anlagen mit unterschiedlichen Rotor-Stator-Systemen. Eine Modellzelle im Labormaßstab dient zur Berechnung der Verweilzeitverteilung und zur Charakterisierung wichtiger Einflussgrößen (Drehzahl, Volumenstrom, Durchströmungskonfiguration, Partikelmasse, Randbedingung). Die numerisch gewonnenen Ergebnisse werden dabei erfolgreich mit Experimenten validiert. Ein Flotationssegment in Originalgröße liefert weitere Ergebnisse zur Hydrodynamik. Die Berechnung wird stationär und transient vorgenommen, um die Bedeutung der Zeitabhängigkeit bewerten zu können. Damit ist ferner eine Aussage zum Einlaufverhalten der Strömung möglich, indem das Drehmoment am Rührer als Funktion der Zeit ausgewertet wird. Eine Bewertung erfolgt über die Bestimmung der Verweilzeitverteilung in Abhängigkeit verschiedener Strömungskonfigurationen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Untersuchung hat das Ziel, die Stärke des Regionalen Innovationssystems Nordhessen mit Blick auf die Unternehmen zu analysieren. Sie basiert auf Erhebungen im Rahmen des von der Volkswagenstiftung geförderten Projekts „Regional Innovation Systems“ (RIS). Einen Schwerpunkt dieses Forschungsprojektes bildete eine breit angelegte Unternehmensbefragung in der Region Nordhessen, deren Ergebnisse in diesem Beitrag vorgestellt werden. Zudem werden drei vergleichende Auswertungen vorgenommen: (i) Ein Vergleich mit den Ergebnissen einer Unternehmensbefragung in Nordhessen aus dem Jahr 1998 erlaubt es, Veränderungen der Innovationskraft der nordhessischen Unternehmen sowie die Entwicklung ihrer Einbindung in das RIS bzw. eine Bewertung des RIS zwischen 1998 und 2006 darzustellen. (ii) Die Auswertungen der aktuellen Befragung geben zwar einen Einblick in die Innovationskraft des RIS Nordhessen, sagen aber nichts darüber aus, wie diese im Vergleich zu anderen Regionen aufgestellt ist. Deswegen werden die aktuellen Ergebnisse mit den Ergebnissen einer im Rahmen des Forschungsprojektes RIS zeitgleich durchgeführten, identischen Unternehmensbefragung in der Region Jena verglichen. (iii) Zusätzlich zu diesen Auswertungen ist es möglich, die Daten für Nordhessen mit einer weiteren, speziellen Gruppe von Unternehmen zu vergleichen: den Ausgründungen aus der Universität Kassel. Dieser Vergleich wird vorgenommen, um festzustellen, ob sich diese Unternehmen von den anderen Unternehmen hinsichtlich ihrer Innovationskraft und der Beteiligung am RIS unterscheiden. Aus der Auswertung der Unternehmensbefragung und den drei Vergleichen lassen sich dann Schlussfolgerungen für Politikmaßnahmen ziehen, die die Entwicklung eines RIS unterstützen könnten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Niedrige Milchpreise setzen die deutschen Milchbauern unter Kostendruck und veranlassen sie, die Laktationsleistung der Kühe zu erhöhen. Im Zusammenhang mit weiteren Milchleistungssteigerungen kommt einer wiederkäuergerechten Fütterung im Hinblick auf die Vermeidung gesundheitlicher Risiken eine besondere Bedeutung zu. Ziel des Forschungsvorhabens war es, eine Messmethode zur Bestimmung von Fress- und Wiederkäuaktivitäten zu entwickeln, welche die bisherigen methodischen Unzulänglichkeiten überwindet und ermöglicht den qualitativen und quantitativen Einfluss tierindividueller, fütterungsbedingter und leistungsbezogener Faktoren zu erfassen. Hierzu wurde der Prototyp eines Messsystem entwickelt, das in einem Messhalfter integriert wurde. Das Messsystem beinhaltet einen Sensor zur Erfassung der Kaubewegungen, einen Datenlogger für die Speicherung der Messdaten, ein Akkupack zur Energieversorgung, und eine Auswertungssoftware für die automatische Analyse der erfassten Messdaten. Zwecks Überprüfung des Prototypen unter Praxisbedingungen wurden im Rahmen eines Fütterungsversuches Messungen der Fress- und Wiederkäuaktivität durchgeführt. Die Anwendung des Prototypen auf dem Versuchsbetrieb deckte die folgenden methodischen Unzulänglichkeiten auf: - elektromagnetische Störfelder, hervorgerufen durch die auf den Versuchsbetrieb verwendeten Wiegetröge zur Erfassung der Futteraufnahme, - Fehlmessungen aufgrund verrutschender Halfter, bedingt durch die große Variation in den Schädelmaßen der Versuchstiere, - keine hinreichende Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern. Die aufgetretenen elektrischen Probleme konnten mittels einer verbesserten Abschirmung gegen elektromagnetische Felder behoben werden. Fehlmessungen aufgrund sich verschiebender Halfter konnten durch eine Änderung des Halfterdesigns verringert werden. Es war jedoch nicht möglich, diese Störgröße gänzlich zu beseitigen. Ebenso war es nicht möglich, die Differenzierung der einzelnen Verhaltenstypen bei schnell aufeinanderfolgenden unterschiedlichen Verhaltensmustern mittels einer Änderung im Auswertealgorithmus zu verbessern. Um diesen beiden Problemen Rechnung zu tragen, wurden die Ergebnisse der Auswertungssoftware mittels einer Sichtkontrolle der Messwertkurven validiert. Nach der Validierung verblieben für die statistische Auswertung folgende Messergebnisse: - Anzahl auswertbarer Einzeltiere: 9 - Anzahl auswertbarer Messtage: 73 - Anzahl auswertbarer Wiederkäuphasen: 512 - Anzahl auswertbarer Fressphasen: 676 - Anzahl auswertbarer Einzelboli: 11.347 In der statistischen Auswertung wurden Korrelation der Charakteristika der Wiederkäuboli: Länge des Bolus in Sekunden, Anzahl der Kauschläge pro Bolus und der Frequenz der Kauschläge pro Sekunde und Bolus, der Wiederkäuphasen: Länge der Wiederkäuphasen in Minuten, Anzahl Boli in der Wiederkäuphase und die Anzahl der Kauschläge in der Wiederkäuphase und der Wiederkäudauer pro Tag (in Minuten) mit den erfassten Einflussfaktoren: tierindividuelle Parameter, Milchparameter und Fütterungsparameter berechnet. Um wechselseitige Beziehungen der Einflussfaktoren untereinander besser darstellen zu können, wurde im nächsten Schritt eine multiple lineare Regression durchgeführt. Zur Erfassung der Gewichtung der Einflussfaktoren wurde als dritte statistische Methode eine Regressionsbaumanalyse berechnet. Die Charakteristika der Wiederkäuboli wiesen eine große tierindividuelle Variation zwischen den Einzeltieren auf. Die Milchkühe käuten im Mittel 46 ± 12 Sekunden wieder und vollzogen in dieser Zeit 60 ± 25 Kauschläge bei einer mittleren Kauschlagfrequenz von 1,3 ± 0,4 Kauschlägen pro Sekunde. Die größte tierindividuelle Variation mit 53,1 % wies der Parameter Anzahl der Kauschläge pro Bolus auf. Die Frequenz der Kauschläge pro Bolus wurde in hohem Maße von der Anzahl der Kauschläge pro Bolus beeinflusst (R² = 0,71) und nur in geringem Maße von der Länge des Bolus (R² = 0,21). Das geringe Bestimmtheitsmaß der multiplen Regression der Länge des Bolus (R² = 0,18) deutet auf eine sehr geringe Beeinflussung durch alle erfassten Einflussfaktoren hin. Ebenso wie die Charakteristika der Wiederkäuboli wiesen die Charakteristika der Wiederkäuphasen eine hohe inter- und intraindividuelle Variation (>45%) und bei allen Versuchstieren eine hohe Korrelation der Charakteristika untereinander auf (r = 0,74 bis r =0,98). In der Regressionsanalyse konnte keiner der geprüften Einflussfaktoren einen nennenswerten Erklärungswert liefern. Die Variationen in der Länge der Wiederkäuphasen, Anzahl der Boli pro Phase und der Anzahl der Kauschläge pro Phase wurden weder von der Fütterung, noch vom Tier oder der Milchleistung in nennenswerter Weise geprägt. Eine Beurteilung dieser Einflussfaktoren anhand der Beobachtung einzelner Wiederkäuphasen ist somit nicht möglich. Die Fress- und Wiederkäudauer pro Tag wiesen eine große tierindividuelle Variation auf (37,9 % bzw. 29,0 %). Bei beiden Verhaltensweisen ist die intraindividuelle Variation geringer als die interindividuelle Variation (Fressdauer: 37,9 zu 23,6 %; Wiederkäudauer: 29,0 zu 9%). Der geringe Wert des intraindividuellen Variationskoeffizienten der Wiederkäudauer pro Tag legt eine starke tierindividuelle Determinierung der Wiederkäuaktivität nahe.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung zur Inaugural-Dissertation: Von „weiblichen Vollmenschen“ und Klassenkämpferinnen – Frauengeschichte und Frauenleitbilder in der proletarischen Frauenzeitschrift „Die Gleichheit“ (1891-1923). Die wissenschaftliche Bedeutung, die der SPD-Frauenzeitschrift „Die Gleichheit“ (1891-1923) als Quelle der Geschichte der Frauenbewegung zukommt, spiegelt sich weder in Darstellungen zur Geschichte der SPD noch in der Geschichtsschreibung der deutschen Frauenbewegung wider. Auch ist die „Gleichheit“, Presseorgan der organisierten proletarischen Frauenbewegung Deutschlands und der Sozialistischen Fraueninternationale, bisher kaum Gegenstand einer umfassenden publizistischen Analyse gewesen. Es galt daher, zumindest das Hauptblatt der „Gleichheit“, die an ihr beteiligten Personen, ihre Strukturen und ihr Selbstverständnis möglichst detailliert und anhand publizistischer Kriterien darzustellen. Wandlungen ihres Erscheinungsbildes, ihrer editorischen und personellen Strukturen oder ihres Seitenumfangs markieren entscheidende Wendepunkte der deutschen Politik während des deutschen Kaiserreichs und der Weimarer Republik. Ihr Niveau lag deutlich über dem einer allgemeinen Frauenzeitschrift, eines Mitteilungs- oder Unterhaltungsblattes. Ihr Ziel war es, sowohl politisches Schulungsblatt für die engagierten Genossinnen als auch Agitationsmittel für die indifferenten Proletarierinnen zu sein. Inwieweit sie mit dieser Zielsetzung erfolgreich war, kann jedoch selbst die große Zahl ihrer Abonnements (der Höchststand lag 1914 bei 124.000 Exemplaren) nicht validieren. Tatsächlich ließ gerade der von ihrer langjährigen Redakteurin Clara Zetkin (1857-1933) angestrebte hohe intellektuelle Anspruch die „Gleichheit“ jedoch nicht zu einem Medium der Massen werden. Im Mai 1917 entschied sich der SPD-Parteivorstand, der dem Burgfrieden abträglichen, konsequent sozialistischen und internationalistischen Haltung Zetkins keine öffentliche Plattform mehr zu geben und entließ sie aus der Redaktion. Die Leitung der „Gleichheit“, die auch bis zu diesem Zeitpunkt durchaus keine „One-Woman-Show“ war, oblag schließlich bis zu ihrem letztmaligen Erscheinen im September 1923 noch einigen weiteren Redakteurinnen und Redakteuren (Marie Juchacz (1879-1956), Heinrich Schulz (1872-1932), Clara Bohm-Schuch (1879-1936), Elli Radtke-Warmuth (?-?) und Mathilde Wurm (1874-1935)). Deren Tätigkeit für die „Gleichheit“ wurde jedoch bisher kaum wissenschaftlich reflektiert. Dies gilt auch für die ausgesprochen internationale Zusammensetzung oder die männlichen Mitglieder des MitarbeiterInnenstabes. Indem sie sich selbst in der Tradition und als Teil eines Netzwerkes deutscher Frauen­öffentlichkeit („Die Frauen-Zeitung“ (1849-1852), „Die Staatsbürgerin“ (1886) und „Die Arbeiterin“ (1890-1891)) sah und indem sie besonders mittels frauen­geschichtlicher und frauenbiographischer Inhalte das Selbstbewusstsein ihrer Leserinnen zu fördern versuchte, betrieb die „Gleichheit“ gezielt Frauengeschichtsschreibung. Zahlreiche Artikel porträtieren Frauen aus Geschichte und Gegenwart und stellen in ihrem elaborierten Stil „Typen“ bzw. „Vorbilder“ dar. Um die Frage beantworten zu können, welche Frauen der Geschichte und welche ihrer Charaktereigenschaften von der „Gleichheit“ als vorbildlich für Sozialdemokratinnen erachtet wurden, wurden die biographischen Artikel zu 173 Frauen nach Analyse ihrer Inhalte und ihres Duktus vier Frauenleitbildern zugeordnet. Die Kategorisierung der einzelnen Frauenleitbilder „weiblicher Vollmensch“, „sozialistische Mutter“, „sozialistische Ehefrau“ und „Klassenkämpferin“ lehnt sich wiederum an den von Zetkin bereits 1898 veröffentlichten Artikel „Nicht Haussklavin, nicht Mannweib, weiblicher Vollmensch” (Die Gleichheit, Jg. 08/ Nr. 02/ 19.11.1898/ S. 1.) an. Sämtliche frauenbiographischen Artikel appellieren an die „Gleichheit“-Leserinnen, die oft selbst gesetzten Grenzen ihrer Handlungs – und Entwicklungsmöglichkeiten zu sprengen. Die sich daraus ableitenden Identifikationsangebote waren somit nicht auf dem Reissbrett ent­worfen, sondern basierten auf geschichtlicher Erfahrung und antizipierendem Bewusstsein. Diese Leitbilder versuchten, Realität und Utopie miteinander zu verbinden und konnten daher kaum frei von Widersprüchen sein. Wie die „Gleichheit“ selbst, so blieben auch ihre Ansätze politischer Frauen­bildung teilweise zwischen revolu­tionärem Umsturz und traditioneller Kontinuität gefangen. Indem sich die „Gleichheit“ historischer Vorbilder bediente, machte sie jedoch konkrete Ansprüche geltend: Sie forderte den weiblichen Anteil an Geschichte, an politischer Macht und am öffentlichen Bewusstsein.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war es, einen Beitrag zur Resistenzforschung bei Tomaten gegenüber P. infestans zu leisten, um erste Grundlagen für eine mögliche Züchtungsstrategie auf Basis unterschiedlicher quantitativer Resistenzen zu erarbeiten. Hierzu wurde untersucht, inwieweit unterschiedliche qualitative und quantitative Resistenzen bei Tomatenblättern und -früchten vorliegen, und ob hierfür verantwortliche Mechanismen identifiziert werden können. Zudem wurde untersucht, ob isolatspezifische quantitative Resistenzen identifiziert werden können. Zu diesem Zweck wurde mit einer erweiterten Clusteranalyse, basierend auf einer modifizierten Sanghvi-T2 Distanz, ein statistisches Verfahren entwickelt, welches die Identifikation von quantitativen, isolatspezifischen Resistenzen unter der Berücksichtigung der Variabilität ermöglicht. Des weiteren wurde geprüft, inwieweit zwischen den Resistenzausprägungen auf dem Blatt und den Resistenzausprägungen auf der Frucht ein Zusammenhang besteht und inwieweit die im Labor beobachteten Resistenzen unter Freilandbedingungen eine Rolle spielen. Im Labortest wurde die qualitative und quantitative Blattresistenz von 109 Akzessionen aus elf Lycopersicon und Solanum Arten gegenüber zwölf unterschiedlich aggressiven und teilweise auch unterschiedlich virulenten P. infestans Isolaten untersucht (Kap. 3). Die Früchte von 38 Tomatensorten wurden auf ihre Resistenz gegenüber drei P. infestans Isolaten geprüft. Zusätzlich wurde der Einfluss der Fruchtnachreife auf die Resistenzeigenschaften der Tomatenfrüchte gegenüber P. infestans analysiert (Kap. 4). Insgesamt 40 Sorten wurden auch unter Feldbedingungen auf Blatt- und Fruchtbefall untersucht (Kap. 5). Die frühen Stadien der Infektion von Tomatenblättern mit P. infestans Sporangien wurden mikroskopisch bei acht Tomatensorten mit unterschiedlichen quantitativen Reaktionsprofilen und drei Isolaten untersucht (Kap. 6). Hierzu wurden die Entwicklungsstadien von P. infestans Sporangien nach 24h, 48h und 60h nach der Inokulation auf und im Blatt mit der Calcofluor und der KOH - Anilin Blau Färbung sichtbar gemacht. Das Auftreten und die Lokalisation von H2O2 im Blatt nach 48h und 60h nach der Inokulation in Reaktion auf die Infektion wurde mithilfe einer DAB (3,3′ - Diaminobenzidine) Färbung untersucht. Es wurden einige, z.T. auch wahrscheinlich neue, qualitative Blattresistenzen gegenüber P. infestans gefunden, jedoch war keine der 109 Akzessionen vollständig resistent gegenüber allen Isolaten. Für die quantitative Resistenz von Blättern lagen in vielen Fällen isolatspezifische Unterschiede vor. Die Sorte x Isolat Interaktionen konnten mit Hilfe der erweiterten Clusteranalyse erfolgreich analysiert werden und die Akzessionen in Gruppen mit unterschiedlichen quantitativen Resistenzprofilen bzgl. der Interaktion mit den Isolaten und des Resistenzniveaus eingeteilt werden. Für die Fruchtresistenz konnten keine qualitativen Resistenzen gegenüber den drei getesteten Isolaten gefunden werden. Im Gegensatz dazu unterschieden sich die Tomatensorten in ihrer quantitativen Resistenz und Sorten und Isolate interagierten signifikant. Auch für die Fruchtresistenz konnten Gruppen mit unterschiedlichen quantitativen Reaktionsprofilen gebildet werden. Insgesamt nimmt die Anfälligkeit von Tomatenfrüchten mit zunehmender Reife kontinuierlich und signifikant ab. Unter Laborbedingungen korrelierten nur die Sporulationskapazität der Früchte und der prozentuale Blattbefall. Im Feldversuch über zwei Jahre und mit bis zu 40 Tomatensorten war der Zusammenhang hoch signifikant, jedoch asymptotisch, d.h. bereits bei sehr geringem Blattbefall war der Fruchtbefall sehr hoch. Bei den Tomatenherkünften, die sowohl im Labor als auch im Feld auf ihre Anfälligkeit getestet wurden, erschienen die Blattanfälligkeiten ähnlich, während kein klarer Zusammenhang zwischen der Fruchtanfälligkeit im Feld und im Labor bestand. Die Entwicklung von P. infestans auf der Blattoberfläche war unabhängig von der Sorte. Sowohl beim Eindringen und der Etablierung von P. infestans ins Blatt als auch bei der damit verbunden H2O2 Aktivität im Wirt wurden deutliche isolat- und sortenspezifische Effekte gefunden, die aber nur zum Teil mit den quantitativen Unterschieden der Blattresistenz korrespondierten. Sorten, die bei hoher Resistenz unterschiedliche Reaktionsprofile aufweisen, sind grundsätzlich interessante Kreuzungspartner, um die quantitative Resistenz gegenüber P. infestans zu verbessern. Hier sind vor allem Sorten, die sich auch in ihrer H2O2 Aktivität unterscheiden von Interesse.