122 resultados para Analytische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit untersuchte die Einflüsse der Bodenart und Einarbeitungstiefe von Streu auf die mikrobielle Nutzung und ihren Abbau. Anhand einer Kohlenstoffsequestrierung wurde die Verlagerung streubürtigen Kohlenstoffes in die Fraktionen CO2-C, SOC, extrahierbaren Kohlenstoff, Cmik und POM-C betrachtet. Aufgrund der Analyse der δ13C-CO2 Werte der Bodenrespiration, im Rahmen der Sequestrierung des streubürtigen Kohlenstoffes, war der Anteil der streubürtigen Bodenrespiration und somit die gesamte, zu erwartende Bodenrespiration bekannt. Durch die, bei der Kohlenstoffsequestrierung, ermittelten Werte konnte eine Plausibilitätsprüfung an vier Methoden zur Erfassung der Bodenrespiration, auf ihre Genauigkeit und mögliche Artefakte hin, durchgeführt werden. Des Weiteren wurden in einem anschließenden Freilandversuch unter subtropischen Bedingungen die Einflüsse verschiedener Dünger und Feldfrüchte, in Abhängigkeit der Streuqualität, auf den Streuabbau und die mikrobielle Besiedelung hin untersucht. Im ersten Versuch (Kapitel 3), wurde anhand eines Säulenversuches der Einfluss der Einarbeitungstiefe, in Anhängigkeit der Bodenart, auf den Streuabbau untersucht. Dieses ist von großer Bedeutung, da auf landwirtschaftlich genutzten Flächen Streu und so genannte "Grüne Dünger" durch den Einsatz unterschiedlicher Bodenbearbeitungssysteme, wie z.B. der Kreiselegge oder dem Wendepflug, in unterschiedliche Tiefen eingearbeitet werden. Die Verlagerung streubürtigen mikrobiellen Kohlenstoffes per Pilzhyphen, über eine Distanz von bis zu 20 cm wurde innerhalb dieser Arbeit das erste Mal gezeigt. Bisherige Studien zeigten einzig einen Transport von streubürtigem Kohlenstoff per Pilzhyphen, über eine kurze Distanz von der Detritussphäre in den angrenzenden Boden. Der höhere Anteil streubürtigen mikrobiellen Kohlenstoffes innerhalb der von der Streuschicht weiter entfernten Schichten im sandigen Boden, im Vergleich zum lehmigen Boden zeigte, dass das feine Porenvolumen des lehmigen Bodens den Transport Streubürtigen Kohlenstoffes per Pilzhyphen grundsätzlich behindert. Diese Annahme wurde durch die stärkere Abnahme des Anteils streubürtigen mikrobiellen Kohlenstoffes, mit zunehmender Entfernung zur Streuschicht, im lehmigen Boden im Vergleich zum sandigen Boden unterstützt. Es ist davon auszugehen, dass der sandige Boden zusätzlich durch die höhere Porosität eine erhöhte Sauerstoffdurchlässigkeit und somit, in den tieferen Schichten bessere Wachstumsbedingungen für Mikroorganismen bietet als der lehmige Boden. Durch die Ausbreitung substratbürtigen mikrobiellen Kohlenstoffes wurde im sandigen Boden mehr streubürtiger Kohlenstoff durch Mikroorganismen inkorporiert als im lehmigen Boden. Ein weiterer Grund für die geringere Verlagerung von streubürtigem Kohlenstoff in die mikrobielle Biomasse des lehmigen Bodens ist wahrscheinlich der bessere physikalische Schutz durch den höheren Tonanteil. Durch die Einarbeitung der Streu stieg in allen Ansätzen der Gehalt an Ergosterol, welcher ein wesentlicher Indikator für die Präsenz saprotropher Pilze ist. Besonders stark ausgeprägt war der Anstieg des Ergosterolgehaltes, sowie des Ergosterol / mikrobielle Biomasse C – Quotienten, wenn Streu in die untere Schicht (15 - 20 cm) ein-gearbeitet wurde. Diese tiefenspezifischen Unterschiede wurden bisher in noch keinem weiteren Versuch beobachtet und können auf die Entwicklung unterschiedlicher pilzlicher Gemeinschaften zurück zu führen sein. Es ist jedoch wahrscheinlicher, dass pilzliche Nekromasse in den oberen Bodenschichten schneller umgesetzt wird und somit bei der Ergosterolbestimmung nicht mit erfasst wird. Da der Umsatz der pilzlichen Nekromasse im porösen sandigen Boden, aufgrund der höheren Sauerstoffverfügbarkeit und des geringeren physikalischen Schutzes, vermutlich höher ist als im lehmigen Boden, wird diese Annahme durch den im sandigen Boden geringeren Gehalt an mikrobiellen Kohlenstoff unterstützt. Wie erwartet, überstieg die Mineralisation der Streu im sandigen Boden die der im lehmigen Boden. Jedoch anders als erwartet, unterschied sich die Mineralisation in Abhängigkeit der Einarbeitungstiefe, mit einer erhöhten Mineralisation bei Einarbeitung der Streu in 0 - 5 cm Tiefe, einzig im sandigen Boden. Die Berechnung des Ertragskoeffizienten zeigte, dass die Substratsnutzungseffizienz der Mikroorganismen im sandigen Boden signifikant geringer war als die im lehmigen Boden. Die Zugabe von Streu führte in beiden Böden, verstärkt jedoch im lehmigen Boden, zu einem positiven Priming Effekt, der in beiden Bö-den stärker ausgeprägt war, als Streu in 0–5 cm Tiefe eingearbeitet wurde. Trotz Abnahme der SOC-bürtigen mikrobiellen Biomasse stieg die Mineralisation des SOC stark an. Es ist anzunehmen, dass extrazelluläre Enzyme wie Cellulase und Lignin modifizierende Enzy-me, produziert von saprotrophen Pilzen, zum Abbau von Cellolose und Lignin der Streu, zum Teil sehr effizient SOC abbauen. Im zweiten Versuch (Kapitel 4) wurde anhand des gleichen Säulenversuches (Versuch 1; Kapitel 3) der Einfluss der Entfernung von CO2-hot-spots im Boden zur Bodenoberfläche, in Abhängigkeit der Bodenart, auf vier verschiedene Methoden zur Erfassung der Bodenrespiration betrachtet. Zusätzlich wurde durch eine Plausibilitätsprüfung anhand der Kohlenstoffbilanz, basierend auf der in Versuch 1 durchgeführten Kohlenstoffsequestrierung, die Genauigkeit der vier Methoden in Abhängigkeit der Bodenart überprüft. Für beide Ansätze mit sandigem Boden zeigen IR und PAS eine deutliche Überschätzung der mit NaOH und GC bestimmten Bodenrespiration. Die Überschätzung durch IR ist dabei auf die durch die dynamische Haube verursachten Turbulenzen und deren Auswirkungen auf den porösen sandigen Boden zurück zu führen. Bei geringen Respirationsraten, wie bei der Kontrolle, zeigt die Messung mittels IR trotz Turbulenzen, verursacht durch den Ventilator der Haube, keine Überschätzung. Die Überschätzung durch PAS hingegen kann nicht auf Turbulenzen, verursacht durch die dynamische Haube, zurück geführt werden, da bei den Analysen mit PAS und GC identische Hauben, höher und größer als bei IR, eingesetzt wurden und die Bodenrespiration durch GC nicht überschätzt wurde. Im Gegensatz zu beiden sandigen Ansätzen überschätzt IR die Bodenrespiration im lehmigen Boden nicht. NaOH hingegen unterschätzt die Bodenrespiration, wenn Streu in 15-20 cm Tiefe des lehmigen Bodens eingearbeitet ist. Dieses ist dadurch zu erklären, dass, bedingt durch die geringere Porosität sowie das höhere Wasserhaltevermögen und dem daraus resultierenden geringeren Luft gefüllten Porenvolumen, die Diffusion von CO2 im lehmigen Boden langsamer ist als im sandigen Boden. Nach Absorption des CO2 der Haubenluft diffundiert das CO2 des CO2-hot-spots in 15-20 cm Tiefe, entlang des Diffusionsgradienten, aufgrund des Diffusionswiderstandes in lehmigen Boden langsamer zur Oberfläche als im sandigen Boden oder wenn der CO2-hot-spot direkt unter der Bodenoberfläche liegt. Da bei der Messung mit der dynamischen Haube diese nur kurz auf der Fläche verbleibt, beeinflusst der Diffusionsgradient diese Messungen nicht. Hinzukommt, dass bei den Messsystemen, die in Kombination mit der dynamischen Haube eingesetzt werden, im Gegensatz zur Absorption durch Lauge keine CO2 Abreicherung stattfindet und die Diffusion von CO2 aus dem Boden über lange Zeit bis zu hohen CO2 Konzentration in der Haube linear bleibt. Alle drei mit einer dynamischen Haube kombinierten Methoden zeigen mit Korrelations-koeffizienten zwischen 0,90 und 0,93 starke Korrelationen mit NaOH. Während PAS die Bodenrespiration im Verhältnis zu NaOH immer überschätzt, tritt eine Überschätzung durch GC nur bei Mineralisationsraten unter 500 mg m-2 h-1 und für IR bei Mineralisations-raten über 40 mg m-2 h-1 ein. Die Plausibilitätsprüfung zeigt, dass für sandigen Boden, mit NaOH und GC eine sehr exakte Wiederfindung von Kohlenstoff erreicht wird, wohingegen IR und PAS in der Wiederfindung von Kohlenstoff bei deutlich über 100 % liegen. Für den lehmigen Boden hingegen ist nach Entfernung der CO2-hot-spots zur Bodenoberfläche zu differenzieren. Befindet sich der CO2-hot-spot direkt unter der Bodenoberfläche ist die Wiederfindung von Kohlenstoff für NaOH, GC und IR sehr exakt. Befindet sich der CO2-hot-spot jedoch in 15-20 cm Tiefe, ist die Wiederfindung des Kohlenstoffes durch NaOH deutlich unter 100 %. Die Wiederfindung durch PAS liegt sowohl für den sandigen als auch für den lehmigen Boden immer deutlich über 100 %. Im dritten Versuch (Kapitel 5), wurde anhand eines Litterbag-Versuches im Norden des Omans, der Einfluss verschiedener Dünger und Feldfrüchte auf den Abbau von Streu auf landwirtschaftlich genutzten Flächen in Abhängigkeit der Streuqualität betrachtet. Bei dem Großteil bisheriger Streuabbauversuche, unter gemäßigten und subtropischen Klimaten, stand der Abbau von Streu im Wald im Fokus der Betrachtung. Die wenigen Versuche zum Streuabbau auf landwirtschaftlich genutzten Flächen beschränken sich auf die gemäßigten Klimate. Wohingegen der Abbau von Streu, sowie der Einfluss von Dünger und Feldfrucht unter subtropischen Bedingungen, zum ersten mal mit der vorliegenden Arbeit fokussiert wurde. Der Verlust an organischem Material war verglichen mit Versuchen un-ter gemäßigten Klimaten, bei allen vier Streuarten, generell hoch. Der höhere Abbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu ist auf Unterschiede der Streuqualität zurückzuführen. Neben der Verwertbarkeit durch Mikroorganismen beeinflusst die Streuqualität zusätzlich die "Schmackhaftigkeit" der Streu für Organismen der Mesofauna. Wodurch ein selektiver Transport und/oder Grazing von Mikroorganismen stattfindet. Der geringere Abbau der Luzernenstreu verglichen mit Maisstreu jedoch ist nicht auf die Streuqualität sondern auf die geringere mikrobielle Besiedelung der Luzernenstreu während der Versuchszeit zurückzuführen. Der Unterschied im Grad der mikrobiellen Besiedelung kann durch die erhobenen Daten nicht erklärt werden. Es ist jedoch davon auszugehen, dass Leguminosen Substanzen wie z.B. Polyphenole enthalten, welche die mikrobielle Biomasse und im Besonderen die pilzliche Biomasse in beachtlichem Umfang inhibitieren. Ebenso wenig ist der höhere Abbau von Weizenstreu verglichen mit Rapsstreu durch die Streuqualität zu begründen. Eine mögliche Erklärung für den geringeren Abbau der Rapsstreu kann ihr hoher Aluminium Gehalt sein. Es ist jedoch wahrscheinlicher, dass die Rapsstreu organische Substanzen wie Glucosinolate enthält, welche den mikrobiellen Streuabbau inhibitieren. Während der Hemicellulosegehalt am Ende des Versuches nicht durch die Streuqualität beeinflusst war, zeigten Cellulose und Lignin quali-tätsabhängige Effekte. Der stärkere Abbau von Cellulose bei Luzernen- und Maisstreu ist auf den anfänglich höheren Stickstoffgehalt zurückzuführen, wodurch die Produktion und Aktivität von Cellulose degradierenden Enzymen, wie Exo-Cellulase, Endo-Cellulase und Xylanase, anstieg. Es ist davon auszugehen, dass die Differenzen im Celluloseabbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu, neben Unterschieden im anfänglichen Stickstoffgehalt, auf den höheren Schutz von Cellulose durch Lignin in Raps- und Weizenstreu zurückzuführen sind. Während der initial geringe Stickstoffgehalt den Ligninabbau in Raps- und Weizenstreu unterstützt, ist die relative Anreicherung von Lignin in Luzernen- und Maisstreu hingegen auf den initial hohen Stickstoffgehalt zurückzuführen. Dem entgegen hat die Zusammensetzung weiterer Nährstoffe einen sehr geringen Effekt. Es ist jedoch möglich, dass stärkere Effekte durch den Eintrag von Boden in die Litterbags durch Organismen der Mesofauna, Wurzelwachstum oder physikalische Verlagerung überdeckt werden. Während unter organische Düngung, die pilzliche Biomasse ansteigt, fördert der leicht verfügbare Stickstoff der mineralischen Düngung die Bildung bakterieller Biomasse. Der höher Gehalt an pilzlicher Biomasse unter organischer Düngung zeigte keinen generellen Effekt auf den Abbau von Kohlenstoff. Er führte jedoch zu einer Veränderung in der Streuzusammensetzung. Die verringerte Abnahme bzw. verstärkte Zunahme der Nährstoffgehalte bei organischer Düngung ist durch den Eintrag dünger-bürtiger Nährstoffe, im Besonderen durch die verstärkte Bildung pilzlicher Hyphen in die Litterbags hinein, zu erklären. Trotz höherer Gehalte an pilzlicher Biomasse war der Ligningehalt am Ende des Versuches unter organischer Düngung höher als unter mineralischer Düngung. Diese ist auf den Eintrag düngerbürtiger Pilze zurückzuführen, welche eine geringere Lignindegradierungseffizienz aufweisen. Der Einfluss der Feldfrucht auf den Streuabbau äußert sich durch höhere Gehalte mikrobieller und im Besonderen pilzlicher Biomasse, und durch geringere Gehalte an N, P, Ca, Na und K in, im Litterbag verbleiben-der Streu, unter dem Anbau von Mohrrüben. Der Anstieg der pilzlichen Biomasse führt, ebenso wie bei der organischen Düngung zu keinem generellen Anstieg der Kohlenstoffdegradation, zeigt jedoch einen selektiven Effekt auf den Abbau von Cellulose. Der Einfluss, sowohl auf die mikrobielle Biomasse, als auch auf den Nährstoffgehalt, zeigt die Bedeutung der Unterschiede im Wurzelwachstum, der Rhizodeposition sowie des Nährstoffbedarfs in Abhängigkeit der Feldfrucht. Trotz großer Unterschiede der Streuarten im anfänglichen Gehalt mikrobieller Biomasse war dieser am Ende des Versuches für alle Streuarten identisch. Dieses war Folge eines starken Anstiegs der pilzlichen Biomasse bei Luzernen- und Maisstreu sowie einer Abnahme der pilzlichen Biomasse bei Raps- und Weizenstreu, welche zuvor noch nicht beobachtet wurde. Dieses macht den Einfluss der anfänglichen mikrobiellen Biomasse auf deren Entwicklung während des Streuabbauprozesses im Boden deutlich. Es ist anzunehmen, dass ein Teil der anfänglichen pilzlichen Biomasse der Raps- und Weizenstreu, welche sich unter gemäßigten Klimaten entwickelte, unter subtropischen Bedingungen nicht überlebensfähig war. Generell war der Streuabbau durch Pilze dominiert. Es zeigte sich jedoch, dass Unterschiede im Pflanzenmaterial einen Einfluss auf die bakterielle Biomasse hatten, Unterschiede in Düngung und Feldfrucht hingegen die pilzliche Biomasse und die bakterielle Biomasse beeinflussten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit der Gründung der Ökologischen Landbaubewegung wird über eine angepasste Bodenbearbeitung diskutiert. Konservierende Bodenbearbeitungssysteme scheinen zwar dem Prinzip des Erhalts und der Förderung der Bodenfruchtbarkeit am ehesten gerecht zu werden, wurden bislang vor allem auf Grund der Unkrautregulierung im Ökolandbau abgelehnt. Anhand von vier Methoden (Literaturrecherche, Feldversuch, Umfrage und Experteninterviews) werden die unterschiedlichen Aspekte der konservierenden Bodenbearbeitung in der Praxis des Ökolandbaus untersucht. In dem dreijährigen Feldversuch wurde das Mulchsaatverfahren nach Getreide mit zwei verschiedenen Bearbeitungstiefen (5-7 cm und 13-15 cm) zur Zwischenfrucht mit dem Pflugeinsatz (25 cm) verglichen. Dabei zeigt sich, dass bei der tiefen Bearbeitung mit dem Grubber der für einen nennenswerten Erosionsschutz notwendige Bedeckungsgrad von 30 % nicht zuverlässig erreicht wird. Gleichzeitig sprechen die geringen Unterschiede in den Trockenmasseerträgen der flachen und tiefen Grubbervarianten für eine flachere Bearbeitung. Die Ergebnisse der Umfrage zur Bodenbearbeitung, die 367 Ökobauern beantworteten, zeigen, dass die Mehrheit der Betriebe (56%) bei der Grundbodenbearbeitung den Pflug einsetzt. 6% der befragten Ökobauern geben an ohne Pflug zu wirtschaften. Etwa 40 % der befragten Ökobauern verzichten zumindest einmal in ihrer Fruchtfolge auf den Pflug. Die Experteninterviews von drei Ökobauern verdeutlichen die unterschiedlichen Maßnahmen der konservierenden Bodenbearbeitung. Ein komplexes System wird erkennbar, das sich durch langjährige Erfahrung der Landwirte entwickelt hat. Anhand der Ergebnisse ist eine konservierende Bodenbearbeitung im Ökolandbau möglich und im Sinne der Förderung der Bodenfruchtbarkeit auch als notwendig zu bezeichnen. Allerdings ist dabei die Bodenbearbeitung nicht isoliert zu betrachten. Im Konzept der konservierenden Bodenbearbeitung sind Entscheidungen in vielen Teilbereichen des Ökobetriebs zum Erfolg notwendig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand der Arbeit ist ein journalistisches Unterrichtsprojekt zur Förderung einer politischen Medienbildung. Das Projekt wurde deutschlandweit in 20 Haupt- und Gesamtschulklassen mit rund 400 Schülern und Schülerinnen durchgeführt und qualitativ untersucht. Im theoretischen Teil werden Konzepte von Medienbildung, medienpädagogische Ansätze und Ergebnisse empirischer Untersuchungen vorgestellt, die für die Arbeit und das Projekt relevant waren. Kapitel 2 thematisiert das Phänomen „TV-Journalismus“ vor dem Hintergrund der Cultural Studies (v. a. Stuart Hall, Margret Lünenborg) und diskutiert es im Hinblick auf medienpädagogische Fragestellungen. Journalismus wird dabei als ein möglicher Weg gesehen, eine politische Bildung mit einer Medienbildung zu verknüpfen. Allerdings führen die Schwerpunkte Journalismus und Politik auch zu Schwierigkeiten bei der Umsetzung, wenn man bedenkt, dass sowohl journalistische Genres als auch Politik in der jugendlichen Lebenswelt keine maßgebliche Rolle spielen, wie aktuelle Jugendstudien zeigen (z. B. JIM- und Deutsche-Shell-Studien). Sinnvoll erscheint hier die Öffnung entsprechender Konzepte hin zu einem weiteren, lebensweltbezogenen Politik- und Journalismusverständnis, um Jugendlichen Bezugspunkte zu ihrer Alltagswelt zu bieten. Kapitel 3 und 4 stellen leitende theoretische Konzepte von Medienbildung/Medienkompetenz (etwa Winfried Marotzki, Manuela Pietraß) sowie medienpädagogische Ansätze (z. B. den handlungsorientierten, themenzentrierten Ansatz von Bernd Schorb) dar. „Medienbildung“ wird in der Arbeit verstanden als Beziehung des Menschen zu sich selbst und zur gegenständlichen und sozialen Welt, wie sie ihm medienvermittelt begegnet. Bildung ist dann das Ergebnis des kritisch-reflexiven Umgangs mit der medial vermittelten Welt. Eine Medienbildung umfasst dabei auch eine Medienkompetenz im Sinne von medienspezifischem Wissen und Fähigkeiten des Umgangs mit Medien. Eine „politische Medienbildung“ wird in Anlehnung an David Buckingham dann zum einen als ein kritisches „Lesen“ medialer Texte definiert, in welchen die soziale Welt vermittelt wird. Zum anderen bedeutet eine „politische Medienbildung“ auch die eigene Gestaltung medialer Texte und die Teilhabe an einer medialen Kultur. Kapitel 5 beschreibt die konkrete forschungsmethodische Herangehensweise: Das medienpädagogische Projekt wurde qualitativ im Hinblick auf eine Medienbildung untersucht. Anders als in bisherigen Medienkompetenz-Studien wurde nicht nach den Wissenszuwächsen und erlernten Fähigkeiten nach Projektende gefragt. Im Zentrum des Interesses standen die im Unterrichtsprojekt beobachteten Situationen und Prozesse einer reflexiven Auseinandersetzung mit journalistisch vermittelten Themen und Darstellungsweisen. Verschiedene Methoden und Datenquellen wurden miteinander kombiniert, um die Unterrichtsrealität angemessen erfassen zu können. Zu den Erhebungsmethoden gehörten etwa die Unterrichtsaufzeichnung, die Gruppendiskussion und das Sammeln von alltagskulturellem Material. Die dabei gewonnenen Daten wurden mit den Auswertungsverfahren der Text- und Bildanalyse untersucht. Die Ergebnisse folgen schließlich in Kapitel 6. Dieses wird im Hinblick auf die konkretisierten Forschungsfragen differenziert in: • Kapitel 6.1: Hier geht es um die Auseinandersetzung der Schüler/innen mit Wissen über Medien. Relevant sind hier Fragen nach einem Vorwissen von Jugendlichen über journalistische Gestaltungsmittel und wie die Schüler/innen ein solches Vorwissen im Kontext des Unterrichts einbrachten. • Kapitel 6.2: Diese Ergebnisse zeigen auf, wie sich die Jugendlichen mithilfe journalistischer Texte mit einem Thema auseinandersetzten, z. B. wie sie diese hinsichtlich ihrer Glaubwürdigkeit oder ihrer Darstellung bewerteten. • Kapitel 6.3: In diesem Kapitel finden sich Ergebnisse aus den Gruppenarbeiten, in welchen die Schüler/innen selbst ein mediales Konzept entwarfen. Die Aufzeichnungen in den Gruppen deckten auf, wie die Schüler/innen an diese Aufgabe herangingen, welche inhaltlichen Schwerpunkte sie setzten, wie sie Sichtweisen in der Gruppe aushandelten und welche formale Darstellungsweise sie planten. Die Kapitel 6.4 und 7 liefern eine Zusammenfassung der wichtigsten Erkenntnisse und eine kritische Diskussion, welche Chancen und Probleme ein journalistisches Projekt im Kontext der Schule und insbesondere für die Zielgruppe einer niedrigen Bildungszugehörigkeit mit sich bringt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit einigen Jahren erfährt Lateinamerika einen epochalen Umbruch. Das neoliberale Modell ist in einer Krise. Die Politik des „Washington Consensus“ und das Diktum einer politisch nicht kontrollierbaren Globalisierung werden zunehmend hinterfagt. Aus der Linkswende haben sich neue alternative Politikkonzepten entwickelt. In dem vorliegenden Working Paper wird auf die Beziehung von sozialen Bewegungen, Ideologien und Regierungen eingegangen. In ihrer Diagnose arbeitet Maristella Svampa die ambivalenten Charakteristiken des aktuellen Wandels in Lateinamerika heraus. Daran schließt eine analytische Annäherung an die verschiedenen ideologischen Traditionen an, die den Widerstandssektor prägen. Abschließend werden bei der Analyse der vier wichtigsten Tendenzen einige der wichtigsten Daten über die Region präsentiert. Zu diesen Tendenzen gehören der Fortschritt der indigenen Kämpfe, die Konsolidierung neuer Formen des Kampfes, die Reaktivierung der national-populären Tradition, sowie die Rückkehr des „Desarrollismo“. Letztere wird sowohl von progressiven als auch eher konservativ-neoliberalen Regierungen unterstützt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ein großer Teil der Schäden wie auch der Verluste an Gesundheit und Leben im Erdbebenfall hat mit dem frühzeitigen Versagen von Mauerwerksbauten zu tun. Unbewehrtes Mauerwerk, wie es in vielen Ländern üblich ist, weist naturgemäß einen begrenzten Erdbebenwiderstand auf, da Zugspannungen und Zugkräfte nicht wie bei Stahlbeton- oder Stahlbauten aufgenommen werden können. Aus diesem Grund wurde bereits mit verschiedenen Methoden versucht, die Tragfähigkeit von Mauerwerk im Erdbebenfall zu verbessern. Modernes Mauerwerk kann auch als bewehrtes oder eingefasstes Mauerwerk hergestellt werden. Bei bewehrtem Mauerwerk kann durch die Bewehrung der Widerstand bei Beanspruchung als Scheibe wie als Platte verbessert werden, während durch Einfassung mit Stahlbetonelementen in erster Linie die Scheibentragfähigkeit sowie die Verbindung zu angrenzenden Bauteilen verbessert wird. Eine andere interessante Möglichkeit ist das Aufbringen textiler Mauerwerksverstärkungen oder von hochfesten Lamellen. In dieser Arbeit wird ein ganz anderer Weg beschritten, indem weiche Fugen Spannungsspitzen reduzieren sowie eine höhere Verformbarkeit gewährleiten. Dies ist im Erdbebenfall sehr hilfreich, da die Widerstandfähigkeit eines Bauwerks oder Bauteils letztlich von der Energieaufnahmefähigkeit, also dem Produkt aus Tragfähigkeit und Verformbarkeit bestimmt wird. Wenn also gleichzeitig durch die weichen Fugen keine Schwächung oder sogar eine Tragfähigkeitserhöhung stattfindet, kann der Erdbebenwiderstand gesteigert werden. Im Kern der Dissertation steht die Entwicklung der Baukonstruktion einer Mauerwerkstruktur mit einer neuartigen Ausbildung der Mauerwerksfugen, nämlich Elastomerlager und Epoxydharzkleber anstatt üblichem Dünnbettmörtel. Das Elastomerlager wird zwischen die Steinschichten einer Mauerwerkswand eingefügt und damit verklebt. Die Auswirkung dieses Ansatzes auf das Verhalten der Mauerwerkstruktur wird unter dynamischer und quasi-statischer Last numerisch und experimentell untersucht und dargestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wird untersucht, ob die Effektivität behördlichen Handelns durch organisationales Lernen gesteigert werden kann und welches Potential dem Organisationslernen für die Verwaltungspraxis innewohnt. Das Organisationslernen wird durch die Erhebung des Vorkommens einzelner Methoden des verwaltungspraktischen Handelns erfasst. Zur quantitativen Erfassung der Effektivität der behördlichen Tätigkeit ist eine behördenspezifische Operationalisierung erforderlich. Für die Untersuchung werden die zur Durchführung des SGB II gebildeten Abteilungen der gegenwärtig 63 Optionskreise ausgewählt. Diese betreiben seit 2005 die bis dahin getrennten Hilfesysteme von Arbeitslosen- und Sozialhilfe zusammengefasst als Grundsicherung für Arbeitsuchende in eigener Zuständigkeit (neben den alternativen Organisationsformen der Arbeitsgemeinschaft und der getrennten Aufgabenträgerschaft). Zur Operationalisierung des behördlichen Handlungsergebnisses der Optionskreise wird die Zahl der Bedarfsgemeinschaften gewählt. Es kann folglich die Hypothese formuliert werden, dass umfangreiches Organisationslernen zu einer beschleunigten Reduzierung der Zahl der Bedarfsgemeinschaften führt. Zur Prüfung dieser Hypothese wurde Anfang 2009 eine schriftliche Vollerhebung bei den 63 Optionskreisen durchgeführt. Die Rücklaufquote der Erhebungsbögen betrug 59%. Der Nutzungsgrad der in der Erhebung berücksichtigten Methoden liegt zwischen 85% (Benchmarking) und 4% (Qualitätsmanagement). Die Erhebungsergebnisse werden bepunktet, um den Nutzungsgrad des Organisationslernens zu operationalisieren. Von den erzielbaren 20 Punkten je Optionskreis werden maximal 12 erreicht (Median: 9 Punkte; geringster Wert: 2 Punkte). Im definierten Zeitraum betrug der Median der Entwicklung der Zahl der Bedarfsgemeinschaften bei den an der Erhebung teilnehmenden Optionskreisen – 16,5% (günstigster Wert: – 27,4%; ungünstigster Wert: +0,4 %). Die Anwendung eines Rangkorrelationskoeffizienten offenbart, dass die Rangfolgen „Grad des Organisationslernens“ und „Entwicklung der Zahl der Bedarfsgemeinschaften“ nicht korrelieren. Insoweit kann die Untersuchungsfrage, ob die Effektivität behördlichen Handelns durch die Nutzung des Organisationslernens gesteigert werden kann, noch nicht abschließend beantwortet werden. Eine Analyse des Ergebnisses zeigt allerdings, dass es trotz der nicht korrelierenden Rangfolgen bestimmte Methoden des Organisationslernens gibt, die mit einer überdurchschnittlich hohen Effektivität in Bezug auf die Entwicklung der Zahl der Bedarfsgemeinschaften einhergehen. Zu dem nach dem Ergebnis der Untersuchung empfehlenswerten Methodenset gehören beispielsweise die Implementierung von Controlling- und Berichtspflichten gegenüber der Gesamtverwaltungsleitung, der Einsatz von Monitoringsystemen und die Gewährleistung einer organisationalen Grundstabilität. Darüber hinaus wird erkennbar, dass die Konkurrenzsituation zwischen Optionskommunen, Arbeitsgemeinschaften und getrennten Aufgabenträgerschaften zu einer insgesamt steigenden Effektivität des behördlichen Handelns führt. Hieraus lassen sich Ansatzpunkte für die Theoriebildung und Modellierung eines „Lizenz-Modells“ zur Erhöhung der Effektivität anderer behördlicher Leistungen entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sei $N/K$ eine galoissche Zahlkörpererweiterung mit Galoisgruppe $G$, so dass es in $N$ eine Stelle mit voller Zerlegungsgruppe gibt. Die vorliegende Arbeit beschäftigt sich mit Algorithmen, die für das gegebene Fallbeispiel $N/K$, die äquivariante Tamagawazahlvermutung von Burns und Flach für das Paar $(h^0(Spec(N), \mathbb{Z}[G]))$ (numerisch) verifizieren. Grob gesprochen stellt die äquivariante Tamagawazahlvermutung (im Folgenden ETNC) in diesem Spezialfall einen Zusammenhang her zwischen Werten von Artinschen $L$-Reihen zu den absolut irreduziblen Charakteren von $G$ und einer Eulercharakteristik, die man in diesem Fall mit Hilfe einer sogenannten Tatesequenz konstruieren kann. Unter den Voraussetzungen 1. es gibt eine Stelle $v$ von $N$ mit voller Zerlegungsgruppe, 2. jeder irreduzible Charakter $\chi$ von $G$ erfüllt eine der folgenden Bedingungen 2a) $\chi$ ist abelsch, 2b) $\chi(G) \subset \mathbb{Q}$ und $\chi$ ist eine ganzzahlige Linearkombination von induzierten trivialen Charakteren; wird ein Algorithmus entwickelt, der ETNC für jedes Fallbeispiel $N/\mathbb{Q}$ vollständig beweist. Voraussetzung 1. erlaubt es eine Idee von Chinburg ([Chi89]) umzusetzen zur algorithmischen Berechnung von Tatesequenzen. Dabei war es u.a. auch notwendig lokale Fundamentalklassen zu berechnen. Im höchsten zahm verzweigten Fall haben wir hierfür einen Algorithmus entwickelt, der ebenfalls auf den Ideen von Chinburg ([Chi85]) beruht, die auf Arbeiten von Serre [Ser] zurück gehen. Für nicht zahm verzweigte Erweiterungen benutzen wir den von Debeerst ([Deb11]) entwickelten Algorithmus, der ebenfalls auf Serre's Arbeiten beruht. Voraussetzung 2. wird benötigt, um Quotienten aus den $L$-Werten und Regulatoren exakt zu berechnen. Dies gelingt, da wir im Fall von abelschen Charakteren auf die Theorie der zyklotomischen Einheiten zurückgreifen können und im Fall (b) auf die analytische Klassenzahlformel von Zwischenkörpern. Ohne die Voraussetzung 2. liefern die Algorithmen für jedes Fallbeispiel $N/K$ immer noch eine numerische Verifikation bis auf Rechengenauigkeit. Den Algorithmus zur numerischen Verifikation haben wir für $A_4$-Erweiterungen über $\mathbb{Q}$ in das Computeralgebrasystem MAGMA implementiert und für 27 Erweiterungen die äquivariante Tamagawazahlvermutung numerisch verifiziert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dass Rückmeldungen ein wichtiges Instrument des schulischen Lehr-Lernkontextes darstellen, ist nicht neu. Schon in den 70er Jahren konnte die immense Bedeutung einer Rückmeldung für den Lernprozess herausgestellt werden. Bereits damals war bekannt, dass SuS sich im Unterricht ihrer richtigen und unangemessenen Verhaltensweisen oder Kompetenzen nicht in dem Maße bewusst sind, dass Verhaltensänderungen oder Kompetenzzuwächse eingeleitet werden könnten (vgl. Spanhel 1977, S. 91). Aus diesem Grund beschäftigt sich diese Studie mit derartigen Problematiken und stellt dar, wie in zwei Grundschulklassen Feedback erteilt wurde. Das Thema „Lehrerrückmeldungen im Grundschulalltag“ wird mehrere Aspekte in den Fokus stellen, um die Thematik ausführlich darstellen zu können. In den ersten beiden Kapiteln dieser Arbeit wird sich den grundlegenden theoretischen Erkenntnissen zugewandt, wobei sich zunächst der Rückmeldung, also dem Feedback, gewidmet werden soll. Hierbei wird der Feedbackterminus definiert und besonderer Wert darauf gelegt, wie Feedback in Lehr-Lernkontexten lernförderlich gestaltet werden kann. Dies wird Ausgangslage für die später folgende empirische Untersuchung sein. Da Lehrerrückmeldungen im schulischen Kontext präsent sind, geht es im zweiten theoretischen Kapitel darum, generelle Aufgaben der Grundschule vorzustellen, welche unter dem Oberbegriff des Bildungs- und Erziehungsauftrages der Grundschule subsummiert werden können. Anschließend werden die Begriffe Lernen, Leisten und Leistungsbewertung beschrieben und abschließend dargelegt, worin das Verhältnis zwischen einer mündlichen Rückmeldung und einer Leistungsbewertung besteht. Im Anschluss an die Theorie folgt der empirische Teil dieser Arbeit. Zunächst wird dabei auf die verwendeten Methoden eingegangen und das Forschungsfeld vorgestellt. Im darauf folgenden Kapitel werden die Ergebnisse bezüglich des Lehrerfeedbacks dargestellt und analysiert. Dazu zählen die Darstellung und Auswertung der Beobachtungen zu den Bereichen: Merkmale des Lehrerhandelns, Lehrer-Schülerinteraktion und angewandte Feedbackformen. Anhand der Lehrerinterviews werden dann die beiden Feedback-Konzepte der interviewten Lehrpersonen vorgestellt. Mittels der Beobachtungen sollen die Fragen: „Wie geben LehrerInnen in zwei Grundschulklassen Feedback?“ und „Welche Feedbackformen werden angewandt?“, geklärt werden können. Die Lehrerinterviews sollen Auskunft über das verfügbare Wissen der beiden Lehrerinnen bezüglich Rückmeldungen geben. Hinsichtlich der Feedbackrezeption durch den Lerner können kaum bis keine Studien gefunden werden. Diesem Aspekt von Rückmeldungen wird scheinbar wenig Beachtung geschenkt, sodass diese Arbeit der defizitären Forschungslage zuträglich sein kann. Aus diesem Grund wird in Kapitel 6 auf die Ergebnisse zur Rezeption von Rückmeldungen durch SuS Bezug genommen. Dabei werden sowohl die Beobachtungen als auch die durchgeführten Schülerinterviews ausgewertet und bezüglich der Sichtweise der SuS auf verschiedene Feedback-situationen evaluiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Fluoreszenzspektroskopie ist eine der wenigen Methoden, die eine Untersuchung von Zerfallsprozessen nach einer Anregung mit schmalbandiger Synchrotronstrahlung ermöglicht, wenn die Zerfallsprodukte nicht geladen sind. In der vorliegenden Arbeit wurden in erster Linie Anregungen des molekularen Wasserstoffs untersucht, die zur Erzeugung ungeladener aber angeregter Fragmente führten. Eine Bestimmung der absoluten Querschnitte für die drei möglichen Zerfallskanäle: Ionisation, Dissoziation und molekulare Fluoreszenz nach einer Anregung des Wasserstoffmoleküls im Anregungswellenlängenbereich zwischen 72,4 nm und 80 nm stand im ersten Teil der Arbeit im Vordergrund. Die oben erwähnten Zerfallskanäle und das Transmissionsspektrum wurden simultan aufgenommen und mit Hilfe des Lambert-Beerschen-Gesetzes absolut ermittelt. Die Verwendung der erhaltenen Querschnitte ermöglichte die Bestimmung der Dominanz der einzelnen Zerfallskanäle für 3p-D Pi-, 4p-D' Pi- und 5p-D’’ Pi-Zustände in Abhängigkeit von Vibrationsniveaus. Diese Zustände koppeln über eine nicht adiabatische Kopplung mit einem 2p-C Pi-Zustand, was zur Prädissoziation führt. Des Weiteren koppeln die angeregten Zustände zu höher liegenden Rydberg-Zuständen, damit wird eine starke Variation der Ionisationswahrscheinlichkeit in Abhängigkeit von Vibrationsniveaus verursacht. Die Stärke der Kopplung ist dabei entscheidend welcher der drei möglichen Zerfallswege dominant zur Relaxation des angeregten Zustandes beiträgt. Alle Werte wurden mit theoretisch ermittelten Daten aus MQDT- Berechnungen [Phys. Rev. A 82 (2010), 062511] verglichen und zeigten sehr gute Übereinstimmungen. Im zweiten Teil der Arbeit ist eine neue Apparatur für winkel- und zeitauflösende Photon-Photon-Koinzidenz entwickelt worden. Die zwei Off-Axis-Parabolspiegel, die das Herzstück der Apparatur bilden, parallelisieren die im Fokus abgestrahlte Emission des doppelt angeregten Wasserstoffmoleküls und projizieren diese auf jeweils einen Detektor. Die an zwei Strahlrohren bei BESSY II durchgeführten Messungen zeigten gute Übereinstimmungen mit den schon vorher veröffentlichten Daten: Messungen [J. Chem. Phys. 88 (1988), 3016] und theoretische Berechnungen [J. Phys. B: At Mol. Opt. Phys. 38 (2005), 1093-1105] der Koinzidenzrate in Abhängigkeit von der anregenden Strahlung. Durch die Bestimmung der gemessenen Zerfallszeit einzelner Prozesse konnten einzelne doppelt angeregte Zustände identifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

DIADEM, created by THOMSON-CSF, is a methodology for specifying and developing user interfaces. It improves productivity of the interface development process as well as quality of the interface. The method provides support to user interface development in three aspects. (1) DIADEM defines roles of people involved and their tasks and organises the sequence of activities. (2) It provides graphical formalisms supporting information exchange between people. (3) It offers a basic set of rules for optimum human-machine interfaces. The use of DIADEM in three areas (process control, sales support, and multimedia presentation) was observed and evaluated by our laboratory in the European project DIAMANTA (ESPRIT P20507). The method provides an open procedure that leaves room for adaptation to a specific application and environment. This paper gives an overview of DIADEM and shows how to extend formalisms for developing multimedia interfaces.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die fliegerische Tätigkeit auf der Kurzstrecke in der zivilen Luftfahrt unterliegt arbeitsspezifischen Belastungsfaktoren, die sich in wesentlichen Punkten von denen auf der Langstrecke unterscheiden. Eine hohe Arbeitsbelastung auf der Kurzstrecke ist mit vielen Starts und Landungen am Tag verbunden. Neben der Anzahl der Flugabschnitte können auch lange Flugdienstzeiten und/oder unregelmäßige Arbeitszeiten sowie der Zeitdruck während der Einsätze auf der Kurzstrecke zur Belastung für Cockpitbesatzungsmitglieder werden und zu Ermüdungserscheinungen führen. Bisher wurden flugmedizinische und -psychologische Daten hauptsächlich auf der Langstrecke in Bezug auf die Auswirkungen der Jet-Leg Symptomatik und kaum auf der Kurzstrecke erhoben. Deshalb wurde im Rahmen des DLR- Projekts „Untersuchungen zu kumulativen psychischen und physiologischen Effekten des fliegenden Personals auf der Kurzstrecke“ eine Langzeituntersuchung zur Belastung/Beanspruchung, Ermüdung sowie Erholung des Cockpitpersonals auf der Kurzstrecke über jeweils 56 Tage durchgeführt. In Zusammenarbeit mit der Deutschen Lufthansa AG dauerte die Untersuchung zu den Auswirkungen arbeitsspezifischer Belastungsfaktoren auf die Cockpitbesatzungsmitglieder der Boeing 737-Flotte von 2003 bis 2006. ZIEL: Unter Berücksichtigung theoretisch fundierter arbeitspsychologischer Konzepte war das Ziel der Studie, kumulative und akute Effekte auf das Schlaf-Wach-Verhalten, auf die Belastung/Beanspruchung sowie auf die Müdigkeit zu identifizieren, die durch aufeinander folgende Einsätze auf der Kurzstrecke innerhalb eines Zeitraums von acht Wochen auftreten können. Hierfür wurden Daten von 29 Piloten (N=13 Kapitäne; N=16 Erste Offiziere) aufgezeichnet. Das Durchschnittsalter lag bei 33,8 ± 7,9 Jahren (Kapitäne: 42,0 ± 3,8 Jahre; Erste Offiziere: 27,4 ± 2,2 Jahre). METHODEN: Über ein Handheld PC konnten effizient Fragebögen bearbeitet und das Sleep Log sowie das Flight Log geführt werden. Die subjektive Ermüdung und Arbeitsbeanspruchung wurden durch standardisierte Fragebögen (z.B. Ermüdungsskala von Samn & Perelli (1982), NASA-TLX) operationalisiert. Im Sleep Log und im Flight Log wurden das Schlaf-Wach-Verhalten sowie flugspezifische Daten dokumentiert (z.B. Dienstbeginn, Dienstende, Flugabschnitte, Zielorte, etc.). Der Schlaf-Wach-Zyklus wurde mittels der Aktimetrie während des gesamten Messverlaufs aufgezeichnet. Die objektive Leistungsfähigkeit wurde täglich morgens und abends mit Hilfe einer computergestützten Psychomotor Vigilance Task (PVT) nach Dinges & Powell (1985) erfasst. Die Leistung in der PVT diente als Indikator für die Ermüdung eines Piloten. Zusätzliche Befragungen mit Paper-Pencil-Fragebögen sollten Aufschluss über relevante, psychosoziale Randbedingungen geben, die bei den täglichen Erhebungen nicht berücksichtigt wurden (z.B. Arbeitszufriedenheit; Essgewohnheiten; Kollegenbeziehungen). ERGEBNISSE: Unter Beachtung kumulativer Effekte wurde über die Studiendauer keine Veränderung in der Schlafqualität und im Schlafbedürfnis festgestellt. Die Müdigkeit nahm dagegen während der achtwöchigen Untersuchung zu. Die Reaktionszeit in der PVT zeigte an Flugdiensttagen eine Verschlechterung über die Zeit. Insgesamt wurden keine kritischen längerfristigen Effekte analysiert. Akute signifikante Effekte wurden bei der Ermüdung, der Gesamtbelastung und der Leistungsfähigkeit an Flugdiensttagen gefunden. Die Ermüdung als auch die Gesamtbelastung stiegen bei zunehmender Flugdienstdauer und Leganzahl und die Leistung nahm in der PVT ab. Der „time on task“ Effekt zeigte sich besonders in der Ermüdung durch die fliegerische Tätigkeit ab einer Flugdienstzeit von > 10 Stunden und > 4 Legs pro Tag. SCHLUSSFOLGERUNG: Mit diesen Ergebnissen konnte eine wissenschaftliche Datenbasis geschaffen werden aus der Empfehlungen resultieren, wie die Einsatzplanung für das Cockpitpersonal auf der Kurzstrecke unter flugmedizinischen und flugpsychologischen Gesichtspunkten optimiert werden kann. Zudem kann ein sachgerechter Beitrag im Rahmen der Diskussion zur Flugdienst- und Ruhezeitenregelung auf europäischer Ebene geleistet werden.