997 resultados para STARK LADDERS


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anlass der Untersuchung sind Verstärkungen von strukturwandel- und globalisierungsbedingten Wandlungen unter Schrumpfungs- und Stagnationsbedingungen. Denn Stagnations- und Schrumpfungstendenzen in einer Region sind selektiv, sie begünstigen über verschiedene Mechanismen Polarisierungen und Marginalisierungen: Die allgemeine Entspannung am Wohnungsmarkt hat erhöhte Mobilität und damit sozialräumliche Segregierungen und Polarisierungen der Wohnungsversorgung zur Folge. Leerstände und ausbleibende Investitionen begünstigen Polarisierungen von baulich-räumlichen Qualitäten. Diese beiden Entwicklungen überlagern sich im Stadtraum und verstärken sich gegenseitig. Dabei verbessert sich die Wohnungsversorgung in den benachteiligten Quartieren kaum, so die Ausgangshypothesen. Die Untersuchung fragt nach den Wirkungen des Nebeneinanders von Wachstums-, Stagnations- und Schrumpfungserscheinungen auf unterschiedlichen Maßstabsebenen, dem Zusammenspiel von sozialstrukturellen und qualitativen Veränderungen der baulich-räumlichen Gegebenheiten in den Quartieren sowie in innerstädtischer Differenzierung. Dabei interessieren besonders die Einflüsse eines regional entspannten Wohnungsmarktes und dessen Folgen für die Verwertungsstrategien im Wohnungsbestand auf Segregationsprozesse und die Wohnungsversorgung. Als Fallbeispiel der Untersuchung dient die Stadt Kassel. Der sozialräumliche Fokus liegt auf drei Typen benachteiligter Quartiere: Neben den in der aktuellen Diskussion zumeist betrachteten gründerzeitlichen Arbeiterquartieren und den Großsiedlungen der 1960/70er Jahre wurden auch die peripheren Geschosswohnungsbausiedlungen der 1950er/60er Jahre in die Untersuchung einbezogen, um den unterschiedlichen Rahmenbedingungen und Wirkungen in den Quartierstypen auf die Spur zu kommen und damit letztlich Grundlagen für stadtentwicklungspolitische Strategien zu erarbeiten. Die kleinräumigen Analysen von sozialräumlicher und baulich-räumlicher Struktur sowie zur Wohnungsversorgung deckten Parallelen und gegenläufige Entwicklungen zwischen den unterschiedlichen Quartierstypen auf; es ergaben sich verschiedene Anhaltspunkte zur Erhärtung der Ausgangsthesen. So wurde z.B. deutlich, dass sich unter den Marktbedingungen stagnierender Städte die Wohnflächenversorgung in den benachteiligten Quartieren kaum verbessert. Hierin zeigt sich ein entscheidender Unterschied zu stark schrumpfenden Städten, in denen sich die Versorgungslage (fast) durchgängig verbessert. Wohnungsmarktbarrieren wirken offensichtlich unter Stagnationsbedingungen für bestimmte Bevölkerungsgruppen weiter. Da sich ihre Wirkung aber für weitere Kreise der Bevölkerung abschwächt, verschärfen sich sozialräumliche Konzentrationen. Vor allem aber wurden Überlagerung und gegenseitige Verstärkung dieser sozialräumlichen mit baulich-räumlichen Polarisierungen deutlich, die vor allem aus stadträumlich konzentrierten Investitionen in den Gebäude- und Wohnungsbestand resultieren. Letztlich zeigt sich damit, dass regulierende Eingriffe nicht nur im Rahmen des Umbaus und der Erneuerung der Quartiere erforderlich sind, sondern insbesondere auch in den Wohnungsmarkt und dies auch bei entspannter regionaler Marktlage. Andernfalls ist weder eine angemessene Wohnungsversorgung aller Bevölkerungsgruppen noch der Zusammenhalt der Stadt(Gesellschaft) zu gewährleisten. Dabei ist die Stadtpolitik permanent mit der Gleichzeitigkeit von (wirtschaftlicher) Standortpolitik und sozialer Stadtentwicklung konfrontiert, die sie im Sinne einer nachhaltigen Entwicklung gegeneinander und miteinander abwägen muss.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

NGOs werden von einem idealtypischen, perfektionistischen, Homogenität vermittelnden Schleier umgeben, der es schwer macht, die eigentlichen definitorischen Strukturen des NGO-Begriffs zu erfassen. In meiner Dissertation konnte ich dieses in der allgemeinen Öffentlichkeit vorherrschende Image beiseite schieben und erlangte somit einen Blick auf die eigentlichen Strukturen der NGOs. Im weiteren Verlauf versuchte ich die Verortung der NGOs in der Gesellschaft zu lokalisieren. Dies stellte sich sowohl im theoretischen als auch im empirischen Teil, in dem ich Interviews ausgewertet habe, die ich zuvor mit Experten verschiedenster deutscher und brasilianischer NGOs durchführte, als äußerst schwieriges Unterfangen dar. Dies lag zum einem daran, dass abseits der von der UN 1996 aufgestellten NGO-Kriterien keine allgemeingültigen, obligatorisch normativen NGO Definitionen existieren und zum anderen, dass die NGOs und deren Arbeitsfelder so heterogen sind, dass es nahezu unmöglich ist, Definitionskriterien aufzustellen, die allen NGOs gerecht werden könnten. NGOs erbringen einen wichtigen Beitrag zur Interessenvertretung sowie zum Zusammenschluss von Benachteiligten, damit diese ihre (Bürger-) Rechte wahrnehmen und gemeinsam Veränderungen bewirken können. Anhand von Kompetenzaufbau, Ermittlung der Ursachen der Ausgrenzung und deren Beseitigung wird versucht, die Veränderungen aktiv zu gestalten. NGOs fördern somit die Selbstorganisation und bündeln die Belange der Betroffenen. Festzuhalten ist, dass die NGOs ein immens wichtiges Element in der Zivilgesellschaft darstellen. Sie sind Ausdruck des politischen, sozialen und solidarischen Wollens von Menschen, die an der Gemeinschaft teilhaben, ihre Rechte geltend machen und den Istzustand des Systems nicht mehr einfach ohne Gegenwehr hinnehmen wollen. Das zivilgesellschaftliche Engagement ist, so zeigt die wachsende Bedeutung von NGOs, ungebrochen stark. Aber es ist aufgrund seiner großen Vielfalt weder begrifflich noch organisatorisch auf einen einzigen Nenner zu bringen. Das ist offenbar die Stärke eines zivilgesellschaftlichen Engagements, das die Schwächen eines gesellschaftlichen Systems aufnimmt: Staat und Markt sind nicht die einzigen Akteure, von denen gesellschaftlicher Wandel und sozialer Friede zugleich begünstigt werden können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit entstand vor dem Hintergrund einer zunehmenden Hinwendung der wissenschaftlichen Didaktiken zum Konstruktivismus und der damit verbundenen Forderung nach schülerzentrierten Lehr- und Lernarrangements. Die Gründe für diese Entwicklung liegen u. a. in der Vorstellung, dass sich Schüler durch eigenes Konstruieren von Problemlösungen intensiver und verständiger mit dem Lernstoff auseinandersetzen. Im Bereich des Wirtschaftslehreunterrichts ergeben sich aufgrund einer nicht unproblematischen Bezugsdisziplin und ihrer begrifflichen Grundlagen Besonderheiten. Diese begründen sich in einem stark an der klassischen Physik angenäherten Grundverständnis der neoklassischen Ökonomik. Hier setzte die Arbeit an einem typischen ökonomischen Konzept, dem Produktlebenszyklus, beispielhaft an. Wenngleich dieser nicht die radikale Stringenz zwischen gesetzten Annahmen und den daraus abgeleiteten logisch wahren Folgerungen aufweist und somit nicht als originär neoklassisches Konzept gelten kann, weist dieser dennoch deutliche Kompatibilitäten zur Machart der Neoklassik auf, wie beispielsweise weit reichende Komplexitätsreduzierungen. Der Umgang mit dem Produktlebenszyklus durch Lernende wird analytisch-experimentell sowie interpretativ in den didaktischen Spannungsfeldern von Instruktion und Konstruktion untersucht. Im Rahmen einer Schulbuchanalyse konnte gezeigt werden, dass die Leistungsfähigkeit des Produktlebenszyklus in den Lehrwerken durch besonders plausible Beispiele und einen auf Instruktionen setzenden Vermittlungsstil besonders deutlich hervorgehoben wird, obwohl dies empirisch nicht haltbar ist. Dies wirkt verengend auf die differenzierte Wahrnehmung von Märkten und Produkten, wie in Testreihen mit angehenden Wirtschaftslehrern gezeigt werden konnte. Diese Experimente machten am Beispiel des Produktlebenszyklus deutlich, wie prägend instruierende und plausibilisierende Unterrichte wirken können, wenn die behandelten Modelle einen plausiblen Kern haben. Trotz offensichtlicher Inkompatibilitäten zur Realität verteidigten die Probanden mehrheitlich das Modell und immunisierten es gegen Kritik. Eine zweite, stärker auf Konstruktionen setzende Experimentreihe konnte diese Haltung zwar aufweichen und legte den Grundstein für einen konstruktiv-kritischen Umgang mit dem Produktlebenszyklus. Es wurde allerdings auch hier deutlich, welch große Hürde es darstellt, durch instruierende und plausibilisierende Unterrichte erworbene Schemata später noch zu korrigieren. Aus diesen Befunden wurden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Excimerlaser sind gepulste Gaslaser, die Laseremission in Form von Linienstrahlung – abhängig von der Gasmischung – im UV erzeugen. Der erste entladungsgepumpte Excimerlaser wurde 1977 von Ischenko demonstriert. Alle kommerziell verfügbaren Excimerlaser sind entladungsgepumpte Systeme. Um eine Inversion der Besetzungsdichte zu erhalten, die notwendig ist, um den Laser zum Anschwingen zu bekommen, muss aufgrund der kurzen Wellenlänge sehr stark gepumpt werden. Diese Pumpleistung muss von einem Impulsleistungsmodul erzeugt werden. Als Schaltelement gebräuchlich sind Thyratrons, Niederdruckschaltröhren, deren Lebensdauer jedoch sehr limitiert ist. Deshalb haben sich seit Mitte der 1990iger Jahre Halbleiterschalter mit Pulskompressionsstufen auch in dieser Anwendung mehr und mehr durchgesetzt. In dieser Arbeit wird versucht, die Pulskompression durch einen direkt schaltenden Halbleiterstapel zu ersetzen und dadurch die Verluste zu reduzieren sowie den Aufwand für diese Pulskompression einzusparen. Zudem kann auch die maximal mögliche Repetitionsrate erhöht werden. Um die Belastung der Bauelemente zu berechnen, wurden für alle Komponenten möglichst einfache, aber leistungsfähige Modelle entwickelt. Da die normalerweise verfügbaren Daten der Bauelemente sich aber auf andere Applikationen beziehen, mussten für alle Bauteile grundlegende Messungen im Zeitbereich der späteren Applikation gemacht werden. Für die nichtlinearen Induktivitäten wurde ein einfaches Testverfahren entwickelt um die Verluste bei sehr hohen Magnetisierungsgeschwindigkeiten zu bestimmen. Diese Messungen sind die Grundlagen für das Modell, das im Wesentlichen eine stromabhängige Induktivität beschreibt. Dieses Modell wurde für den „magnetic assist“ benützt, der die Einschaltverluste in den Halbleitern reduziert. Die Impulskondensatoren wurden ebenfalls mit einem in der Arbeit entwickelten Verfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass die sehr gebräuchlichen Class II Keramikkondensatoren für diese Anwendung nicht geeignet sind. In der Arbeit wurden deshalb Class I Hochspannungs- Vielschicht- Kondensatoren als Speicherbank verwendet, die ein deutlich besseres Verhalten zeigen. Die eingesetzten Halbleiterelemente wurden ebenfalls in einem Testverfahren nahe den späteren Einsatzparametern vermessen. Dabei zeigte sich, dass nur moderne Leistungs-MOSFET´s für diesen Einsatz geeignet sind. Bei den Dioden ergab sich, dass nur Siliziumkarbid (SiC) Schottky Dioden für die Applikation einsetzbar sind. Für die Anwendung sind prinzipiell verschiedene Topologien möglich. Bei näherer Betrachtung zeigt sich jedoch, dass nur die C-C Transfer Anordnung die gewünschten Ergebnisse liefern kann. Diese Topologie wurde realisiert. Sie besteht im Wesentlichen aus einer Speicherbank, die vom Netzteil aufgeladen wird. Aus dieser wird dann die Energie in den Laserkopf über den Schalter transferiert. Aufgrund der hohen Spannungen und Ströme müssen 24 Schaltelemente in Serie und je 4 parallel geschaltet werden. Die Ansteuerung der Schalter wird über hochisolierende „Gate“-Transformatoren erreicht. Es zeigte sich, dass eine sorgfältig ausgelegte dynamische und statische Spannungsteilung für einen sicheren Betrieb notwendig ist. In der Arbeit konnte ein Betrieb mit realer Laserkammer als Last bis 6 kHz realisiert werden, der nur durch die maximal mögliche Repetitionsrate der Laserkammer begrenzt war.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen der vorliegenden Arbeit wird ein Konzept zur mechanismenorientierten Lebensdauervorhersage entwickelt und auf eine Flanschwelle mit gradiertem Gefüge übertragen. Das Konzept wird in Form eines Computercodes (LOCC) zur Anwendung gebracht. Basierend auf lokalen Spannungen wird für jedes Element eines FE-Modells eine bedingte Versagenswahrscheinlichkeit berechnet. Mithilfe bruch- und ggf. mikromechanischer Modelle werden lokale kritische Risslängen und die bei gegebener Lebensdauer zugehörigen Anfangsrisslängen bestimmt. Diese werden mit geeigneten Modellen in mikrostrukturelle Größen überführt. Die Lebensdauerverteilung der Komponente ergibt sich schließlich aus der Verteilungsfunktion der Anfangsrisslängen bzw. der zugehörigen mikrostrukturellen Einheiten. Die betrachtete Flanschwelle weist als Ergebnis eines thermo-mechanischen Umformprozesses ein gradiertes Gefüge auf. Das Ermüdungsverhalten der Hauptphasen Ferrit-Perlit und Martensit wird untersucht. Während ausgewählter Ermüdungsversuche wird die Schädigungsentwicklung an der Oberfläche mit einem langreichweitigen Mikroskop beobachtet. Das ferritisch-perlitische Ausgangsgefüge zeigt eine sehr komplexe Schädigungsentwicklung (lokale plastische Aktivität, hohe Rissdichte), während beim Martensit keine multiple Rissinitiierung beobachtet wird. Anhand fraktographischer Untersuchungen wird dargelegt, dass der Hauptriss beim Martensit im Bereich von Karbidanhäufungen initiiert. Im LCF-Bereich wird nur ein verschwindender Anteil der Lebensdauer mit Langrisswachstum verbracht, d. h. die martensitischen Proben versagen fast unmittelbar nach der Rissinitiierung. Die Beschreibung ihrer Lebensdauer wird somit direkt auf die Rissinitiierungsphase zurückgeführt. Das ferritisch-perlitische Gefüge hingegen zeigt im LCF-Bereich sowohl eine ausgeprägte Rissinitiierungs- wie auch Langrisswachstumsphase. Diese komplexe Schädigungsentwicklung wird mittels verschiedener Schädigungsvariablen beschrieben, die im Rahmen einer automatisierten Bildanalyse bestimmt werden. Hierbei werden sowohl plastisch stark aktive Bereiche wie auch reale Risse pauschal als Schädigung definiert. Der Vergleich dieser automatisiert bestimmten Schädigungsvariablen mit ausgewählten Rissen zeigt deren Eignung zur quantitativen Beschreibung der Schädigungsentwicklung. Die Lebensdauer einer gradierten Komponente ergibt sich nicht direkt durch Verknüpfung der Lebensdauern der Einzelphasen, sondern sie hängt ggf. auch von den Übergangsbereichen zwischen den Phasen ab. Mithilfe einiger grundlegender bruchmechanischer Überlegungen wird ein konservatives Kriterium zur Behandlung solcher Übergangsbereiche bereitgestellt, womit das LOCC-Konzept letztendlich erfolgreich auf die gradierte Flanschwelle übertragen wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Callcenter spielen in der heutigen Zeit eine bedeutende Rolle in der Kundenkommunikation. Für die Betreiber der Callcenter ist dabei der Umgang mit Kundendaten selbstverständlich; dasselbe gilt oftmals in Bezug auf die Daten ihrer Mitarbeiter, die bei der Telekommunikation anfallen. Das Persönlichkeitsrecht der Arbeitnehmer schränkt den zulässigen Umgang mit solchen Daten jedoch stark ein. Der vorliegende Beitrag behandelt – insbesondere unter Berücksichtigung des seit 1. September 2009 geltenden § 32 BDSG zum Beschäftigtendatenschutz – die datenschutzrechtliche Einordnung verschiedener Maßnahmen, die Callcenter-Mitarbeiter kontrollieren und ihre Leistung sowie ihr Verhalten feststellen sollen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Familiale Bewegungssozialisation – Zum Einfluss der Herkunftsfamilie auf die Bewegungssozialisation von Grundschulkindern. Die zentrale Fragestellung der Schrift ist, welchen Einfluss die soziale Herkunft auf die Bewegungssozialisation und Bewegungsentwicklung von Kindern im Grundschulalter hat. Die Auswirkungen sozialer Ungleichheit auf die Bewegungssozialisation, insbesondere die motorische Entwicklung, wurden in der Sportwissenschaft noch unzureichend untersucht. Der Arbeit liegt die Sozialisationstheorie von Witte (1994) zugrunde; mit ihrer Hilfe wird versucht die motorische Entwicklung theoriegeleitet zu erklären. Dafür werden Merkmale der Bewegungssozialisation und der motorischen Entwicklung in das theoretische Rahmenkonzept von Witte (1994) eingesetzt. Zu Beginn (Kapitel 1) erklärt die Arbeit den Begriff der sozialen Herkunft. Es werden der soziale Status, die Familienform und der Migrationshintergrund als Bestandteile der sozialen Herkunft definiert. Im weiteren Verlauf (Kapitel 2) wird die Sozialisationsinstanz Familie und die verschiedenen Familienformen vor dem Hintergrund sozialer Ungleichheit dargelegt. Das dritte Kapitel widmet sich dem sozialisationstheoretischen Konzept. Es werden die Sozialisationstheorie von Hurrelmann, die Körper- und Bewegungskarriere von Baur und das theoretische Rahmenkonzept der Sozialisation von Witte erklärt. Kapitel 4 beschreibt den Forschungsstand und Kapitel 5 stellt die Modellbildung und die Herleitung der Hypothesen dar. Die empirische Untersuchung fand an ausgewählten Grundschulen der Stadt Kassel statt. Insgesamt wurden 251 Kinder im Alter von 7-10 Jahren mit dem AST 6-11 untersucht und deren Eltern mit einem eigens entwickelten Fragebogen befragt. Die Daten wurden mit Hilfe von multivariaten Verfahren in Beziehung zueinander gesetzt. Die Ergebnisse zeigen, dass sich Grundschulkinder hinsichtlich ihrer motorischen Entwicklung nicht in Abhängigkeit der sozialen Herkunft unterscheiden. Jedoch ist das Sportklima der Familien sehr stark abhängig von der sozialen Herkunft. Es wird deutlich, dass Kinder aus sozial benachteiligten Familien, aus Ein-Eltern-Familien und mit Migrationshintergrund schlechtere Möglichkeiten haben sich in ihrer Bewegungssozialisation zu entfalten. Die Prüfung des Sozialisationsmodells zeigt, neben der guten Operationalisierbarkeit des Modells, dass die Modellvariable „Orientierung“ (Orientierung der Familie hinsichtlich der Bedeutung von Bewegung und Sport) den größten Einfluss auf die Bewegungssozialisation von Kindern hat.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersuchte die Einflüsse der Bodenart und Einarbeitungstiefe von Streu auf die mikrobielle Nutzung und ihren Abbau. Anhand einer Kohlenstoffsequestrierung wurde die Verlagerung streubürtigen Kohlenstoffes in die Fraktionen CO2-C, SOC, extrahierbaren Kohlenstoff, Cmik und POM-C betrachtet. Aufgrund der Analyse der δ13C-CO2 Werte der Bodenrespiration, im Rahmen der Sequestrierung des streubürtigen Kohlenstoffes, war der Anteil der streubürtigen Bodenrespiration und somit die gesamte, zu erwartende Bodenrespiration bekannt. Durch die, bei der Kohlenstoffsequestrierung, ermittelten Werte konnte eine Plausibilitätsprüfung an vier Methoden zur Erfassung der Bodenrespiration, auf ihre Genauigkeit und mögliche Artefakte hin, durchgeführt werden. Des Weiteren wurden in einem anschließenden Freilandversuch unter subtropischen Bedingungen die Einflüsse verschiedener Dünger und Feldfrüchte, in Abhängigkeit der Streuqualität, auf den Streuabbau und die mikrobielle Besiedelung hin untersucht. Im ersten Versuch (Kapitel 3), wurde anhand eines Säulenversuches der Einfluss der Einarbeitungstiefe, in Anhängigkeit der Bodenart, auf den Streuabbau untersucht. Dieses ist von großer Bedeutung, da auf landwirtschaftlich genutzten Flächen Streu und so genannte "Grüne Dünger" durch den Einsatz unterschiedlicher Bodenbearbeitungssysteme, wie z.B. der Kreiselegge oder dem Wendepflug, in unterschiedliche Tiefen eingearbeitet werden. Die Verlagerung streubürtigen mikrobiellen Kohlenstoffes per Pilzhyphen, über eine Distanz von bis zu 20 cm wurde innerhalb dieser Arbeit das erste Mal gezeigt. Bisherige Studien zeigten einzig einen Transport von streubürtigem Kohlenstoff per Pilzhyphen, über eine kurze Distanz von der Detritussphäre in den angrenzenden Boden. Der höhere Anteil streubürtigen mikrobiellen Kohlenstoffes innerhalb der von der Streuschicht weiter entfernten Schichten im sandigen Boden, im Vergleich zum lehmigen Boden zeigte, dass das feine Porenvolumen des lehmigen Bodens den Transport Streubürtigen Kohlenstoffes per Pilzhyphen grundsätzlich behindert. Diese Annahme wurde durch die stärkere Abnahme des Anteils streubürtigen mikrobiellen Kohlenstoffes, mit zunehmender Entfernung zur Streuschicht, im lehmigen Boden im Vergleich zum sandigen Boden unterstützt. Es ist davon auszugehen, dass der sandige Boden zusätzlich durch die höhere Porosität eine erhöhte Sauerstoffdurchlässigkeit und somit, in den tieferen Schichten bessere Wachstumsbedingungen für Mikroorganismen bietet als der lehmige Boden. Durch die Ausbreitung substratbürtigen mikrobiellen Kohlenstoffes wurde im sandigen Boden mehr streubürtiger Kohlenstoff durch Mikroorganismen inkorporiert als im lehmigen Boden. Ein weiterer Grund für die geringere Verlagerung von streubürtigem Kohlenstoff in die mikrobielle Biomasse des lehmigen Bodens ist wahrscheinlich der bessere physikalische Schutz durch den höheren Tonanteil. Durch die Einarbeitung der Streu stieg in allen Ansätzen der Gehalt an Ergosterol, welcher ein wesentlicher Indikator für die Präsenz saprotropher Pilze ist. Besonders stark ausgeprägt war der Anstieg des Ergosterolgehaltes, sowie des Ergosterol / mikrobielle Biomasse C – Quotienten, wenn Streu in die untere Schicht (15 - 20 cm) ein-gearbeitet wurde. Diese tiefenspezifischen Unterschiede wurden bisher in noch keinem weiteren Versuch beobachtet und können auf die Entwicklung unterschiedlicher pilzlicher Gemeinschaften zurück zu führen sein. Es ist jedoch wahrscheinlicher, dass pilzliche Nekromasse in den oberen Bodenschichten schneller umgesetzt wird und somit bei der Ergosterolbestimmung nicht mit erfasst wird. Da der Umsatz der pilzlichen Nekromasse im porösen sandigen Boden, aufgrund der höheren Sauerstoffverfügbarkeit und des geringeren physikalischen Schutzes, vermutlich höher ist als im lehmigen Boden, wird diese Annahme durch den im sandigen Boden geringeren Gehalt an mikrobiellen Kohlenstoff unterstützt. Wie erwartet, überstieg die Mineralisation der Streu im sandigen Boden die der im lehmigen Boden. Jedoch anders als erwartet, unterschied sich die Mineralisation in Abhängigkeit der Einarbeitungstiefe, mit einer erhöhten Mineralisation bei Einarbeitung der Streu in 0 - 5 cm Tiefe, einzig im sandigen Boden. Die Berechnung des Ertragskoeffizienten zeigte, dass die Substratsnutzungseffizienz der Mikroorganismen im sandigen Boden signifikant geringer war als die im lehmigen Boden. Die Zugabe von Streu führte in beiden Böden, verstärkt jedoch im lehmigen Boden, zu einem positiven Priming Effekt, der in beiden Bö-den stärker ausgeprägt war, als Streu in 0–5 cm Tiefe eingearbeitet wurde. Trotz Abnahme der SOC-bürtigen mikrobiellen Biomasse stieg die Mineralisation des SOC stark an. Es ist anzunehmen, dass extrazelluläre Enzyme wie Cellulase und Lignin modifizierende Enzy-me, produziert von saprotrophen Pilzen, zum Abbau von Cellolose und Lignin der Streu, zum Teil sehr effizient SOC abbauen. Im zweiten Versuch (Kapitel 4) wurde anhand des gleichen Säulenversuches (Versuch 1; Kapitel 3) der Einfluss der Entfernung von CO2-hot-spots im Boden zur Bodenoberfläche, in Abhängigkeit der Bodenart, auf vier verschiedene Methoden zur Erfassung der Bodenrespiration betrachtet. Zusätzlich wurde durch eine Plausibilitätsprüfung anhand der Kohlenstoffbilanz, basierend auf der in Versuch 1 durchgeführten Kohlenstoffsequestrierung, die Genauigkeit der vier Methoden in Abhängigkeit der Bodenart überprüft. Für beide Ansätze mit sandigem Boden zeigen IR und PAS eine deutliche Überschätzung der mit NaOH und GC bestimmten Bodenrespiration. Die Überschätzung durch IR ist dabei auf die durch die dynamische Haube verursachten Turbulenzen und deren Auswirkungen auf den porösen sandigen Boden zurück zu führen. Bei geringen Respirationsraten, wie bei der Kontrolle, zeigt die Messung mittels IR trotz Turbulenzen, verursacht durch den Ventilator der Haube, keine Überschätzung. Die Überschätzung durch PAS hingegen kann nicht auf Turbulenzen, verursacht durch die dynamische Haube, zurück geführt werden, da bei den Analysen mit PAS und GC identische Hauben, höher und größer als bei IR, eingesetzt wurden und die Bodenrespiration durch GC nicht überschätzt wurde. Im Gegensatz zu beiden sandigen Ansätzen überschätzt IR die Bodenrespiration im lehmigen Boden nicht. NaOH hingegen unterschätzt die Bodenrespiration, wenn Streu in 15-20 cm Tiefe des lehmigen Bodens eingearbeitet ist. Dieses ist dadurch zu erklären, dass, bedingt durch die geringere Porosität sowie das höhere Wasserhaltevermögen und dem daraus resultierenden geringeren Luft gefüllten Porenvolumen, die Diffusion von CO2 im lehmigen Boden langsamer ist als im sandigen Boden. Nach Absorption des CO2 der Haubenluft diffundiert das CO2 des CO2-hot-spots in 15-20 cm Tiefe, entlang des Diffusionsgradienten, aufgrund des Diffusionswiderstandes in lehmigen Boden langsamer zur Oberfläche als im sandigen Boden oder wenn der CO2-hot-spot direkt unter der Bodenoberfläche liegt. Da bei der Messung mit der dynamischen Haube diese nur kurz auf der Fläche verbleibt, beeinflusst der Diffusionsgradient diese Messungen nicht. Hinzukommt, dass bei den Messsystemen, die in Kombination mit der dynamischen Haube eingesetzt werden, im Gegensatz zur Absorption durch Lauge keine CO2 Abreicherung stattfindet und die Diffusion von CO2 aus dem Boden über lange Zeit bis zu hohen CO2 Konzentration in der Haube linear bleibt. Alle drei mit einer dynamischen Haube kombinierten Methoden zeigen mit Korrelations-koeffizienten zwischen 0,90 und 0,93 starke Korrelationen mit NaOH. Während PAS die Bodenrespiration im Verhältnis zu NaOH immer überschätzt, tritt eine Überschätzung durch GC nur bei Mineralisationsraten unter 500 mg m-2 h-1 und für IR bei Mineralisations-raten über 40 mg m-2 h-1 ein. Die Plausibilitätsprüfung zeigt, dass für sandigen Boden, mit NaOH und GC eine sehr exakte Wiederfindung von Kohlenstoff erreicht wird, wohingegen IR und PAS in der Wiederfindung von Kohlenstoff bei deutlich über 100 % liegen. Für den lehmigen Boden hingegen ist nach Entfernung der CO2-hot-spots zur Bodenoberfläche zu differenzieren. Befindet sich der CO2-hot-spot direkt unter der Bodenoberfläche ist die Wiederfindung von Kohlenstoff für NaOH, GC und IR sehr exakt. Befindet sich der CO2-hot-spot jedoch in 15-20 cm Tiefe, ist die Wiederfindung des Kohlenstoffes durch NaOH deutlich unter 100 %. Die Wiederfindung durch PAS liegt sowohl für den sandigen als auch für den lehmigen Boden immer deutlich über 100 %. Im dritten Versuch (Kapitel 5), wurde anhand eines Litterbag-Versuches im Norden des Omans, der Einfluss verschiedener Dünger und Feldfrüchte auf den Abbau von Streu auf landwirtschaftlich genutzten Flächen in Abhängigkeit der Streuqualität betrachtet. Bei dem Großteil bisheriger Streuabbauversuche, unter gemäßigten und subtropischen Klimaten, stand der Abbau von Streu im Wald im Fokus der Betrachtung. Die wenigen Versuche zum Streuabbau auf landwirtschaftlich genutzten Flächen beschränken sich auf die gemäßigten Klimate. Wohingegen der Abbau von Streu, sowie der Einfluss von Dünger und Feldfrucht unter subtropischen Bedingungen, zum ersten mal mit der vorliegenden Arbeit fokussiert wurde. Der Verlust an organischem Material war verglichen mit Versuchen un-ter gemäßigten Klimaten, bei allen vier Streuarten, generell hoch. Der höhere Abbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu ist auf Unterschiede der Streuqualität zurückzuführen. Neben der Verwertbarkeit durch Mikroorganismen beeinflusst die Streuqualität zusätzlich die "Schmackhaftigkeit" der Streu für Organismen der Mesofauna. Wodurch ein selektiver Transport und/oder Grazing von Mikroorganismen stattfindet. Der geringere Abbau der Luzernenstreu verglichen mit Maisstreu jedoch ist nicht auf die Streuqualität sondern auf die geringere mikrobielle Besiedelung der Luzernenstreu während der Versuchszeit zurückzuführen. Der Unterschied im Grad der mikrobiellen Besiedelung kann durch die erhobenen Daten nicht erklärt werden. Es ist jedoch davon auszugehen, dass Leguminosen Substanzen wie z.B. Polyphenole enthalten, welche die mikrobielle Biomasse und im Besonderen die pilzliche Biomasse in beachtlichem Umfang inhibitieren. Ebenso wenig ist der höhere Abbau von Weizenstreu verglichen mit Rapsstreu durch die Streuqualität zu begründen. Eine mögliche Erklärung für den geringeren Abbau der Rapsstreu kann ihr hoher Aluminium Gehalt sein. Es ist jedoch wahrscheinlicher, dass die Rapsstreu organische Substanzen wie Glucosinolate enthält, welche den mikrobiellen Streuabbau inhibitieren. Während der Hemicellulosegehalt am Ende des Versuches nicht durch die Streuqualität beeinflusst war, zeigten Cellulose und Lignin quali-tätsabhängige Effekte. Der stärkere Abbau von Cellulose bei Luzernen- und Maisstreu ist auf den anfänglich höheren Stickstoffgehalt zurückzuführen, wodurch die Produktion und Aktivität von Cellulose degradierenden Enzymen, wie Exo-Cellulase, Endo-Cellulase und Xylanase, anstieg. Es ist davon auszugehen, dass die Differenzen im Celluloseabbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu, neben Unterschieden im anfänglichen Stickstoffgehalt, auf den höheren Schutz von Cellulose durch Lignin in Raps- und Weizenstreu zurückzuführen sind. Während der initial geringe Stickstoffgehalt den Ligninabbau in Raps- und Weizenstreu unterstützt, ist die relative Anreicherung von Lignin in Luzernen- und Maisstreu hingegen auf den initial hohen Stickstoffgehalt zurückzuführen. Dem entgegen hat die Zusammensetzung weiterer Nährstoffe einen sehr geringen Effekt. Es ist jedoch möglich, dass stärkere Effekte durch den Eintrag von Boden in die Litterbags durch Organismen der Mesofauna, Wurzelwachstum oder physikalische Verlagerung überdeckt werden. Während unter organische Düngung, die pilzliche Biomasse ansteigt, fördert der leicht verfügbare Stickstoff der mineralischen Düngung die Bildung bakterieller Biomasse. Der höher Gehalt an pilzlicher Biomasse unter organischer Düngung zeigte keinen generellen Effekt auf den Abbau von Kohlenstoff. Er führte jedoch zu einer Veränderung in der Streuzusammensetzung. Die verringerte Abnahme bzw. verstärkte Zunahme der Nährstoffgehalte bei organischer Düngung ist durch den Eintrag dünger-bürtiger Nährstoffe, im Besonderen durch die verstärkte Bildung pilzlicher Hyphen in die Litterbags hinein, zu erklären. Trotz höherer Gehalte an pilzlicher Biomasse war der Ligningehalt am Ende des Versuches unter organischer Düngung höher als unter mineralischer Düngung. Diese ist auf den Eintrag düngerbürtiger Pilze zurückzuführen, welche eine geringere Lignindegradierungseffizienz aufweisen. Der Einfluss der Feldfrucht auf den Streuabbau äußert sich durch höhere Gehalte mikrobieller und im Besonderen pilzlicher Biomasse, und durch geringere Gehalte an N, P, Ca, Na und K in, im Litterbag verbleiben-der Streu, unter dem Anbau von Mohrrüben. Der Anstieg der pilzlichen Biomasse führt, ebenso wie bei der organischen Düngung zu keinem generellen Anstieg der Kohlenstoffdegradation, zeigt jedoch einen selektiven Effekt auf den Abbau von Cellulose. Der Einfluss, sowohl auf die mikrobielle Biomasse, als auch auf den Nährstoffgehalt, zeigt die Bedeutung der Unterschiede im Wurzelwachstum, der Rhizodeposition sowie des Nährstoffbedarfs in Abhängigkeit der Feldfrucht. Trotz großer Unterschiede der Streuarten im anfänglichen Gehalt mikrobieller Biomasse war dieser am Ende des Versuches für alle Streuarten identisch. Dieses war Folge eines starken Anstiegs der pilzlichen Biomasse bei Luzernen- und Maisstreu sowie einer Abnahme der pilzlichen Biomasse bei Raps- und Weizenstreu, welche zuvor noch nicht beobachtet wurde. Dieses macht den Einfluss der anfänglichen mikrobiellen Biomasse auf deren Entwicklung während des Streuabbauprozesses im Boden deutlich. Es ist anzunehmen, dass ein Teil der anfänglichen pilzlichen Biomasse der Raps- und Weizenstreu, welche sich unter gemäßigten Klimaten entwickelte, unter subtropischen Bedingungen nicht überlebensfähig war. Generell war der Streuabbau durch Pilze dominiert. Es zeigte sich jedoch, dass Unterschiede im Pflanzenmaterial einen Einfluss auf die bakterielle Biomasse hatten, Unterschiede in Düngung und Feldfrucht hingegen die pilzliche Biomasse und die bakterielle Biomasse beeinflussten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit entstand vor dem Hintergrund der gesellschaftlichen und wirtschaftlichen Veränderungen in China seit den 90er Jahren des 20. Jhds und den damit einhergehenden Reformen im Bildungssystem. Insbesondere für die traditionell wenig angesehene Berufsbildung erfolgte politisch eine völlige Neubewertung, die viele Bemühungen ausgelöst hat, Schule und Unterricht so zu modernisieren, dass den Betrieben unter marktwirtschaftlichen Bedingungen in beruflichen Domainen qualifizierte Jugendliche zur Verfügung stehen und dass sich den Jugendlichen selbst Chancen auf dem Arbeitsmarkt bieten. Eine der diskutierten Reformlinien rückt ein didaktisches Konzept in den Vordergrund, dem ein konstruktivistisches Lernverständnis unterlegt ist und Schüler befähigen will, Zusammenhänge in ausgewählten Tätigkeitsfeldern zu erkennen und die in den Wissenschaften zu ihrer Modellierung verwendeten Konstrukte in ihrer Machart und Leistungsfähigkeit einzuschätzen. Überwunden werden soll in allen Reformansätzen das für das traditionelle Bildungssystem typische memorierende und reproduzierende Lernen. Andere Untersuchungen aber auch eigene Voruntersuchungen zeigen, dass ein Gelingen des intendierten didaktischen Wechsels stark davon abhängt, ob den Lehrkräften Lehrmittel zur Verfügung stehen, die ein verstehendes Lernen unterstützen und dafür Vorbilder liefern. Aus diesem Grunde werden in der Arbeit zahlreiche neuere Schulbuchproduktionen im kaufmännischen Bereich untersucht. Dabei wird auch der Vielfalt der Publikationswege und der Heterogenität im Verlagswesen Rechnung getragen. Für die qualitative Untersuchung werden vier unterschiedliche Gegenstandsbereiche festgelegt, die für wirtschaftsberufliche Curricula zentral sind, und jeweils auf ein typisches inhaltliches Beispiel fokussiert. Für die ausgewählten Gegenstandsbereiche – ökonomisch zentrale Konzepte/ Begriffe, ideale ökonomische Modelle, rechtliche Normen, prozedurales Wissen – werden zunächst jeweils mit Rückgriffen auf kognitive, lerntheoretische, methodologische und dogmengeschichtliche Theorien didaktische Möglichkeiten analysiert, eine verstehende Aneignung fachlicher Inhalte und Denkstile sowie beruflicher Kompetenzen begründet zu begünstigen. Daraus werden jeweils Gesichtspunkte gewonnen, die als Maßstab zur qualitativen Analyse der Schulbuchtexte herangezogen werden. Die Untersuchung der Texte zeigt quer durch die verschiedenen Gegenstandsbereiche und Textbeispiele, dass die Darstellungen durchgängig dem traditionellen Muster klassifikatorischer Informationsorganisation verhaftet bleiben, die eher synoptischen Gestaltungsinteressen folgt und Fragen des Lernens und der Kompetenzaneignung vernachlässigt. Damit bleiben die Schulbuchproduktionen, die vordergründig aktuelle und disziplinär moderne Themen aufgreifen, in ihrer Machart bislang weiter der Tradition verhaftet, memorierendes Lernen einzufordern, was den Zielen der Berufsbildungsreform völlig widerspricht. Das ist ein für den Reformprozess wesentlicher Befund, da den Schulbüchern dabei eine zentrale Rolle zukommt. Aus den Befunden werden Empfehlungen für die wesentlichen an der Lehrerausbildung beteiligten Institutionen abgeleitet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit werden die Erfolge und Misserfolge der Freiraumpolitik im Ruhrgebiet untersucht. Ausgangspunkte sind der Freiraumschwund, der über einen Zeitraum von fast 200 Jahren dokumentiert wird, sowie die Gegenbewegungen, die sich für den Freiraumschutz einsetzen. Nach der Vorstellung einer Freiraumtypologie werden diese Entwicklungen in detaillierten historischen Abrissen für jeden Freiraumtyp dargestellt, woraus sich eine eigene Ruhrgebietsgeschichte - aus der Perspektive der Freiflächen und ihrer Nutzer - ergibt. Folgerichtig beginnt die vorliegende Arbeit nicht mit Kohle und Eisen, sondern mit der Land- und Forstwirtschaft. Anhand historischer Quellen wird die gängige Am-Anfang-war-die-Heide-These widerlegt, denn das Ruhrgebiet war waldreich und ein produktiver Agrarraum. Landwirtschaftliche Flächen- und Waldverluste sind die Basis der Siedlungstätigkeit. Ohne die Gemeinheitsteilungen im 19. Jahrhundert wären die Stadterweiterungen und Industrieansiedlungen im Ruhrgebiet nicht möglich gewesen. Die - in Grundzügen im Ersten Weltkrieg entwickelte - Agrarpolitik mit der Förderung von Produktivitätssteigerungen und Hofaufgaben erleichterte den weiteren Entzug von Agrarflächen, und genauso wirkt heute die Liberalisierung der Agrarmärkte. Alternative Ansätze (z.B. Direktvermarktung) konnten diesen Trend noch nicht aufhalten. Auch das Baumschutzgesetz von 1922 konnte die nationalsozialistischen Kahlschläge, die Waldverluste im Zweiten Weltkrieg und durch den Wiederaufbau nicht verhindern. Erst seit der Deindustrialisierung, der Aufforstung von Halden und der Umweltbewegung nehmen Wälder wieder zu. Demgegenüber treten Ende des 19. Jahrhunderts völlig neue Freiraumtypen auf. Die bürgerschaftliche Kleingartenbewegung wurde dank ihrer Bedeutung für die Ernährung in den Städten seit dem Ersten Weltkrieg vom Staat stark unterstützt, von den Nationalsozialisten gleichgeschaltet, konnte aber in den 1950er Jahren ihren bürgerschaftlichen Charakter und ihre Stärke wieder zurückgewinnen. Auch wenn Kleingärten als bauliche Reserveflächen missbraucht werden, geschieht dies nicht mehr ohne Ersatzland. Im Unterschied hierzu wurde die Stadtparkbewegung kommunalisiert. Sodann entstanden Volksparks mit Sportanlagen, ästhetisch ausgerichtete Gartenschauen, die breit gefächerten Revierparks der 1970er Jahre und neue Parktypen im Emscher Landschaftspark. 1920 wird der Siedlungsverband Ruhrkohlenbezirk gegründet, der mit den Verbandsgrünflächen ein eigenes Instrument zum Freiraumschutz und die Kompetenz zur Fluchtlinien- bzw. Bebauungsplanung erhielt. Inzwischen darf der Verband, vor einigen Jahren in den Regionalverband Ruhr umgewandelt, zu kommunalen Planungen nur noch Stellungnahmen abgeben. Schon früh versuchte der Verband, industrielles Ödland zu begrünen. Nach den Bahndammbegrünungen vor dem Zweiten Weltkrieg hat er seit den 1950er Jahren Halden aufgeforstet, bis in den 1990er Jahren der Aufbau des Emscher Landschaftsparks begann. Zechen- und Industriebrachen werden in neue Parks, Halden und Mülldeponien in Landmarken und Freizeitlandschaften verwandelt. Zu fragen ist, was aus diesen Geschichten für die Freiraumpolitik folgt. Zwei gegensätzliche Thesen werden diskutiert: die Tragedy of the Commons, die im Gemeineigentum die Ursache ökologischer Probleme sieht, während der Common-Property-Ansatz gerade in gemeinschaftlichen Nutzungen einen Ansatz für Problemlösungen sieht. Dabei liegt eine Besonderheit von Freiräumen in ihrem hohen Öffentlichkeitsgrad, d.h. dass sie von vielen Menschen genutzt werden und gleichzeitig mehrere, z.B. produktive, ökologische, politische oder berufliche Funktionen erfüllen. Untersucht wird, inwieweit erfolgreich gesicherte Freiflächen Merkmale von stabilen Common-Property-Institutionen tragen, d.h. welche Funktionen die Freiräume erfüllen, wie ihre Nutzung geregelt ist und vor allem welchen Einfluss die Nutzer auf Entscheidungen haben. Thesenhaft lässt sich zusammenfassen, dass ein Teil der Freiräume sein Wachstum einer derzeit unverzichtbaren Funktion verdankt, nämlich der Camouflage von Müll und Altlasten, die eine bauliche Nutzung ausschließen. Andere Freiräume verdanken ihren Bestand ihren vielfältigen Nutzungen, zur Erholung, durch Denkmäler, für Veranstaltungen, aber auch der Wertsteigerung für umliegende Wohngebiete. Ein kleiner Teil der Freiräume hat tatsächlich einen Common-Property-Charakter: Kleingartenanlagen, die von bürgerschaftlichen Gruppen gegründeten Parks sowie die Flächen, die durch Bürgerinitiativen o.ä. gegen eine bauliche Umnutzung verteidigt werden. Grund genug, um die Idee eines Netzwerks von Parkvereinen aufzugreifen, die sich von bürgerschaftlicher Seite aus für Freiräume einsetzen können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

E-Business, verstanden als ganzheitliche Strategie zur Reorganisation von Geschäftsprozessen, Strukturen und Beziehungen in Unternehmen, bietet für die Arbeitsgestaltung in einer digital vernetzten Welt Chancen und Risiken in Hinblick auf die Humankriterien. Empirische Untersuchungen in 14 Unternehmen zeigen „good practice“-Ansätze im B2B-Feld (Business-to-Business). Untersucht wurden die Tätigkeiten der elektronisch vernetzten Auftragsbearbeitung, des Web-, Content-Managements, der digitalen Druckvorlagenherstellung sowie der CAD- Bauplanzeichnung. Die beobachteten Arbeitsplätze zeigen, dass Arbeitsinhalte eher ganzheitlich und komplex gestaltet sind. Planende, ausführende, kontrollierende und organisierende Anteile weisen auf eine vielfältige Aufgabengestaltung hin, die hohe Anforderungen beinhaltet. Während alle beobachteten Tätigkeiten mit Aufnahme-, Erarbeitungs-, Verarbeitungs-, Übertragungs- und Weitergabeprozessen von Informationen zu tun haben, gibt es Differenzen in Bezug auf den Arbeitsumfang, den Zeitdruck, Fristsetzungen, erwartete Arbeitsleistungen sowie die Planbarkeit der Aufgaben. Die vorgefundenen Aufgabentypen (wenig bis sehr anforderungsreich im Sinne von Denk- und Planungsanforderungen) sind gekennzeichnet durch eine unterschiedlich ausgeprägte Aufgabenkomplexität. Interessant ist, dass, je anforderungsreicher die Aufgabengestaltung, je höher die Aufgabenkomplexität, je größer die Wissensintensität und je niedriger die Planbarkeit ist, desto größer sind die Freiräume in der Aufgabenausführung. Das heißt wiederum, dass bei zunehmenden E-Business-Anteilen mehr Gestaltungsspielräume zur Verfügung stehen. Die bestehenden Chancen auf eine humane Aufgabengestaltung sind umso größer, je höher die E-Business-Anteile in der Arbeit sind. Diese Wirkung findet sich auch bei einem Vergleich der Aufgabenbestandteile wieder. Die negativen Seiten des E-Business zeigen sich in den vorgefundenen Belastungen, die auf die Beschäftigten einwirken. Diskutiert wird die Verschiebung von körperlichen hin zu psychischen und vorrangig informatorischen Belastungen. Letztere stellen ein neues Belastungsfeld dar. Ressourcen, auf welche die Mitarbeiter zurückgreifen können, sind an allen Arbeitsplätzen vorhanden, allerdings unterschiedlich stark ausgeprägt. Personale, organisationale, soziale, aufgabenbezogene und informatorische Ressourcen, die den Beschäftigten zur Verfügung stehen, werden angesprochen. In Bezug auf die Organisationsgestaltung sind positive Ansätze in den untersuchten E-Business-Unternehmen zu beobachten. Der Großteil der untersuchten Betriebe hat neue Arbeitsorganisationskonzepte realisiert, wie die vorgefundenen kooperativen Organisationselemente zeigen. Die kooperativen Organisationsformen gehen allerdings nicht mit einer belastungsärmeren Gestaltung einher. Das vorgefundene breite Spektrum, von hierarchisch organisierten Strukturen bis hin zu prozess- und mitarbeiterorientierten Organisationsstrukturen, zeigt, dass Organisationsmodelle im E-Business gestaltbar sind. Neuen Anforderungen kann insofern gestaltend begegnet und somit die Gesundheit und das Wohlbefinden der Mitarbeiter positiv beeinflusst werden. Insgesamt betrachtet, zeigt E-Business ein ambivalentes Gesicht, das auf der Basis des MTO-Modells (Mensch-Technik-Organisation) von Uhlich (1994) diskutiert wird, indem vernetzte Arbeitsprozesse auf personeller, technischer sowie organisationaler Ebene betrachtet werden. E-business, seen as more than only the transformation of usual business processes into digital ones, furthermore as an instrument of reorganisation of processes and organisation structures within companies, offers chances for a human oriented work organisation. Empirical data of 14 case studies provide good practice approaches in the field of B2B (Business-to-Business). The observed work contents show, that tasks (e.g. order processing, web-, contentmanagement, first print manufacturing and architectural drawing) are well arranged. Executive, organising, controlling and coordinating parts constitute a diversified work content, which can be organised with high demands. Interesting is the result, that the more e-business-parts are within the work contents, on the one hand the higher are the demands of the type of work and on the other hand the larger is the influence on workmanship. The observed enterprises have realised new elements of work organisation, e.g. flexible working time, cooperative leadership or team work. The direct participation of the employees can be strengthened, in particular within the transformation process. Those companies in which the employees were early and well informed about the changes coming up with e-business work, the acceptance for new technique and new processes is higher than in companies which did not involve the person concerned. Structured in an ergonomic way, there were found bad patterns of behaviour concerning ergonomic aspects, because of missing knowledge regarding work-related ergonomic expertise by the employees. E-business indicates new aspects concerning requirements – new in the field of informational demands, as a result of poorly conceived technical balance in the researched SME. Broken systems cause interruptions, which increase the pressure of time all the more. Because of the inadequate usability of software-systems there appear in addition to the informational strains also elements of psychological stress. All in all, work contents and work conditions can be shaped and as a result the health and well-being of e-business-employees can be influenced: Tasks can be structured and organised in a healthfulness way, physiological strain and psychological stress are capable of being influenced, resources are existent and developable, a human work design within e-business structures is possible. The ambivalent face of e-business work is discussed on the basis of the MTO- (Mensch-Technik-Organisation) model (Ulich 1994). Thereby new and interesting results of researches are found out, concerning the personal/human side, the technical side and the organisational side of e-business work.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Haltung von Milchkühen in einem Laufstall hat sich aus arbeitswirtschaftlichen und Kostengründen stark verbreitet. Im Biolandbau wird diese Entwicklung vor allem aufgrund der höheren Tiergerechtheit dieser Haltungsform forciert. Gleichzeitig werden die allermeisten Kühe für die Laufstallhaltung jedoch enthornt, unter anderem weil sich in den üblichen Ställen mit Normmassen und –konzepten Probleme mit Verletzungen unter den Tieren ergaben. Dabei sprechen die Richtlinien und Verordnungen für biologisch wirtschaftende Betriebe deutlich gegen zootechnische Eingriffe. Das Ziel dieser Arbeit war deshalb, zu prüfen, welche stallbaulichen Voraussetzungen eine Haltung horntragender Kühe im Laufstall gelingen lassen und mit welchen Managementmassnahmen diese optimiert werden kann. Dazu wurde zum einen in einer experimentellen Untersuchung an vier Kuhgruppen im cross-over-Design geprüft, wie sich ein gegenüber der Norm erhöhtes Platzangebot in verschiedenen Stallbereichen (Wartebereich: Crowding vs. unbeengt, Tier:Fressplatz-Verhältnis: 1:1 vs. 1:1,25, Liegefläche: 4,5 vs. 8,0 m2/Kuh, Laufhofffläche: 0 vs. 4,5 vs. 9,0 m2/Kuh) auf das (Sozial-)Verhalten behornter Kühe auswirkt, insbesondere auf das Ausmass an agonistischen Interaktionen und auf die Anzahl der Läsionen am Integument der Kühe. Zum anderen wurde in einer Praxiserhebung in 62 zumindest teilweise behornten Milchviehherden untersucht, welche Beziehungen zwischen dem Auftreten von Verletzungen und den Dimensionen und der Gestaltung der Laufställe sowie dem Herdenmanagement, der Mensch-Tier-Beziehung und den Charakteristika der Herde bestehen. Zudem wurden durch Interviews die in der Praxis vorrangig bestehenden Probleme eruiert und die Erfahrungen der Landwirte zusammengetragen. Im Experiment traten im Wartebereich beim grösseren Platzangebot statistisch auffällig (p=0,068) weniger agonistische Interaktionen unter den Kühen auf, die Zahl der Verletzungen zeigte keinen Unterschied. Im Fressbereich hatte eine Erhöhung der Anzahl Fressplätze keinen Einfluss. Eine grössere Liegefläche/Kuh auf der Tiefstreu hatte jedoch statistisch auffällig weniger agonistische Interaktionen, eine Abnahme der Läsionszahlen sowie längere Liegezeiten und kürzere Stehzeiten (im Stall) pro Tag und damit gleichzeitig eine erhöhte Herdensynchronität zur Folge (p=0,068). Ebenso bewirkte ein erhöhtes Laufhofflächenangebot/Kuh eine geringere Häufigkeit an agonistischen Interaktionen, eine Abnahme der Läsionszahlen sowie erhöhte Aufenthaltsdauern im Laufhof (jeweils p=0,068). In der Praxiserhebung konnten aus 113 Faktoren über Vorselektionen mittels univariaten Analysen (ANOVA) und multivariaten Regressionsanalysen in zwei Modellen multivariate Regressionsanalysen gerechnet werden, um die erklärenden Faktoren für die Variation der Verletzungen durch Hörner zu finden. Modell I (alle Betriebe, ohne Faktoren des Liegebereiches (Liegeboxenfaktoren)) wies einen Erklärungswert R2 von 0,825 und eine Signifikanz von p < 0,001 auf, Modell II (Liegeboxenbetriebe, alle Faktoren) einen Erklärungswert R2 von 0,882 und eine Signifikanz von p < 0,001. Als signifikante erklärende Faktoren für wenige Verletzungen verblieben in diesen Modellen der Stalltyp inkl. der Gliederung der Funktionsbereiche (unverbaut und übersichtlich mit klar getrennten Bereichen), eine hohe Anzahl Viehbürsten, breite Laufflächen, keine Hindernisse im Laufbereich, wenige Mitarbeiter, ein hoher Anteil eigener in die Herde eingegliederter Tiere, wenige Eingliederungen in den letzten sechs Wochen, die Rasse Fleckvieh, keine einzelnen unbehornten Kühe in der Herde und ein geringes Verletzungspotential der Hörner. Aus der Erfahrung der Landwirte ist der Fressbereich der Hauptproblembereich. Aus den Ergebnissen lässt sich schlussfolgernd sagen, dass ein Laufstall mit grosszügiger, deutlich über der Norm liegender Dimensionierung der flächigen Stallbereiche (Wartebereich, Liegefläche und Laufhoffläche/Kuh) für behornte Kühe günstige Haltungsbedingungen bietet. Engstellen hingegen bergen Konfliktpotential. Bei der Stallkonzeption muss eine klare Gliederung der Funktionsbereiche angestrebt werden, wenn Auseinandersetzungen vermieden werden sollen. Ein Tier:Fressplatz-Verhältnis von 1:1 mit ein paar Reserveplätzen scheint ausreichend, allerdings muss auf ein wirklich horngeeignetes Fressgitter mit sicherer Fixierung besonderen Wert gelegt werden. Im Management der Herde muss das Augenmerk vor allem auf das Vorgehen bei der Eingliederung von Tieren in die Herde gelegt werden. Da Eingliederungen das soziale Gefüge der Herde ändern, lassen sich mit möglichst wenig Eingliederungen von möglichst bekannten, also eigenen Tieren Auseinandersetzungen mit Verletzungen vermeiden. Günstig ist zudem, wenn nur eine Person die Herde betreut. Eine nur symptomatische, aber sehr effektive Massnahme zur Verringerung der Verletzungszahlen ist das Senken der Verletzungsgefahr der Hörner durch Entfernen spitzer Hornspitzen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Obwohl die DNA Methyltransferase 2 (Dnmt2) hoch konserviert ist und zu der am weitesten verbreiteten eukaryotischen MTase-Familie gehört, ist ihre biologische Funktion nach wie vor unklar. Nachdem lange Zeit keine DNA Methylierungsaktivität nachgewiesen werden konnte, wurde vor einigen Jahren über geringe Mengen an 5-Methylcytosin (5mC) in Retroelementen der “Dnmt2-only”-Organismen D. melanogaster, D. discoideum und E. histolytica berichtet (Kunert et al. 2003; Fisher et al. 2004; Kuhlmann et al. 2005; Phalke et al. 2009). Als kurze Zeit später robuste Methylierung der tRNAAsp durch humane Dnmt2 gezeigt wurde (Goll et al. 2006), wurde zunächst eine Dualspezifität des Enzyms vorgeschlagen (Jeltsch et al. 2006). Neuere Daten zum 5mC-Status verschiedener „Dnmt2-only“-Organismen bilden Anlass für kontroverse Diskussionen über Ausmaß und Bedeutung der DNA Methyltransferaseaktivität von Dnmt2 (Schaefer et al. 2010a; Krauss et al. 2011). Die vorliegende Arbeit konzentriert sich auf die Identifizierung neuer RNA Substrate des Dnmt2-Homologs DnmA aus D. discoideum sowie die biologische Bedeutung der tRNA-Methylierung durch Dnmt2. Wie in anderen Organismen beschrieben, fungiert auch DnmA als tRNAAsp(GUC) MTase in vitro und in vivo. Zusätzlich konnte in vitro tRNAGlu(UUC) als neues Substrat der Dnmt2-Homologe aus D. discoideum und dem Menschen identifiziert werden. In einem Kooperationsprojekt wurde außerdem auch tRNAAsp-Methylierungsaktivität für das Dnmt2-Homolog aus S. pombe (Pmt1) nachgewiesen. Crosslink-RNA-Immunopräzipitationen (RNA-CLIP) mit anschließender Next-Generation-Sequenzierung der mit DnmA assoziierten RNAs zeigen, dass DnmA mit tRNA Fragmenten interagiert, die sich vom Anticodonloop bis in den T-loop erstrecken. Neben der tRNAAsp(GUC) und tRNAGlu(UUC/CUC) sind Fragmente der tRNAGly(GCC) verstärkt angereichert. Inwiefern diese Fragmente eine biologische Funktion haben oder spezifische Degradationsprodukte darstellen, ist noch ungeklärt. Interessanterweise sind von einigen tRNAs wenige Sequenzen von antisense-Fragmenten in den RNA-CLIP Daten zu finden, die etwas kürzer, jedoch exakt komplementär zu den genannten sense-Fragmenten sind. Besonders stark sind diese Fragmente der tRNAGlu(UUC) vertreten. In einem weiteren RNA-CLIP Experiment wurden U-snRNAs, snoRNA und intergenische Sequenzen mit DnmA angereichert. Bei nachfolgenden in vitro Methylierungsstudien konnte ausschließlich die U2-snRNA als potentielles Nicht-tRNA-Substrat der hDnmt2 und DnmA identifiziert werden. Da tRNA Modifikationen im Anticodonloop die Codonerkennung beeinflussen können, wurde ein System etabliert um die Translationseffizienz eines GFP-Reportergens in Wildtyp- und dnmAKO-Zellen zu messen. In D. discoideum wird das Aspartat-Codon GAU ca. zehnmal häufiger genutzt als das GAC Codon, allerdings ist nur eine tRNAAsp(GUC) im Genom der Amöbe kodiert. Aus diesem Grund wurde zusätzlich die Frage adressiert, inwiefern die DnmA-abhängige Methylierung dieser tRNA das „Wobbling“ beeinflusst. Dazu wurde dem Reportergen jeweils eine (GAU)5- und (GAC)5-Leadersequenz vorgeschaltet. Entgegen der Annahme wurde der (GAC)5-Leader in beiden Stämmen etwas effizienter translatiert. Insgesamt zeigte der dnmAKO-Stamm eine leicht erhöhte Translationseffizienz der Reportergene. Vergleichende Analysen zur Aufnahme von Fremd-DNA zeigten signifikant reduzierte Transformationseffizienzen mit einem integrierenden Plasmid in dnmAKO-Zellen. Ein weiterer dnmAKO-Stamm zeigte diesen Effekt jedoch nicht, wobei bei derselben Mutante eine deutlich reduzierte Aufnahme eines extrachromosomalen Plasmids zu verzeichnen war. Untersuchungen zum Einfluss von DnmA auf die Regulation des Retroelements skipper ergaben keinen Zusammenhang zwischen der Generierung kleiner RNAs und der erhöhten Transkription des Retrotransposons in dnmAKO-Zellen (Kuhlmann et al. 2005). Durch Kompensationsversuche sowie Experimente mit einer weiteren dnmAKO-Mutante konnte die Mobilisierung des Retrotransposons nicht eindeutig als DnmA-Funktion eingeordnet werden. In einem weiteren Projekt wurden die Bindung des m5C-bindenden Proteins EhMLBP aus E. histolytica an DNA mittels Rasterkraftmikroskopie abgebildet (Lavi et al. 2006). Neben vermutlich unspezifischen Endbindungsereignissen konnte eine bevorzugte Bindungsstelle des Proteins an LINE DNA (long intersperesed nuclear element) identifiziert werden. Möglicherweise fällt diese mit einem von zwei A/T-reichen Bereichen der LINE DNA zusammen, von denen vermutet wird, dass diese für die Bindung von EhMLBP an DNA von Bedeutung sind. Insgesamt bestätigen die Ergebnisse dieser Arbeit die tRNAAsp Methylierungsaktivität als konservierte Dnmt2-Funktion. Darüber hinaus erweitern sie das Substratspektrum der Dnmt2-Methyltransferasen im Bereich der tRNA. Außerdem wird erstmals ein potentielles Nicht-tRNA Substrat vorgeschlagen. Zusätzlich geben neu entdeckte Phänotypen Hinweise auf vielfältige zelluläre Dnmt2-Funktionen.