999 resultados para Literatur und Lehre
Resumo:
Zusammenfassung In Wien hat Ilse Aichinger (*1921) das Glück der Kindheit erlebt und die Verfolgung durch die Nazis, die ihre jüdischen Verwandten ermordeten. Aichingers Texte zu Wien, die zwischen 1945 und 2005 entstanden sind, suchen in der Topographie der Stadt nach den vergangenen Zeiten und abwesenden Menschen. Sie bilden ein singuläres Erinnerungsprojekt, das einer »Vergangenheitsbewältigung« aus gesicherter Position ein Gedenken entgegengesetzt, das mitsamt seinen Gegenständen im Fluss bliebt. Das Schreiben über Wien bildet einen gewichtigen Strang in einem Werk, das durch Brüche und Lücken gekennzeichnet ist, einen kleinen, immer neu erzählten Stoff und eine immense Spanne an Textformen. In seiner Entwicklung vom Frühwerk, das auf ein emphatisch sich selbst setzendes, existentialistisches Subjekt zentriert ist, zu dem feuilletonistischen Projekt einer »Autobiographie ohne Ich« spiegeln sich 50 Jahre deutscher Literatur- und Kulturgeschichte. Die Einleitung widmet sich der topographischen Poetologie, mit der Ilse Aichinger, Paul Celan, Günter Eich und Ingeborg Bachmann im Diskurs der Standort- und Richtungsbestimmung der Nachkriegsjahre einen eigenen Akzent setzen. Kapitel 1 rekonstruiert am Beispiel der Erzählung Das Plakat (1948) das Raum-, Zeichenund Lektüremodell, das Aichingers hochgradig selbstreferentiellen Texte sowohl abbilden als auch in ihrer Struktur realisieren. Kapitel 2 gewinnt über die Lokalisierung der Schauplätze des Romans Die größere Hoffnung (1948/60) in der Wiener Topographie Aufschluss über die Form des Romans. Der Weg des Romans durch die Stadt integriert die räumlich und zeitlich diskontinuierlichen Kapitel zu einem übergreifenden Ganzen. Kapitel 3 widmet sich den szenischen Dialogen Zu keiner Stunde (1957), die durch ihre Titel in Wien lokalisiert sind. Zeichnet Die größere Hoffnung eine Topographie des Terrors, gehen die Dialoge von Orten der Kunst und des Gedenkens aus und thematisieren die Bedingungen eines Erinnerns, das lebendig bleibt. Kapitel 4 zeichnet nach, wie in den Prosagedichten im Band Kurzschlüsse (1954/2001) und in der autobiographischen Prosa in Kleist, Moos, Fasane (1987) die Gegenwartsebene eines erinnernden Ichs entsteht, die sich zunehmend dynamisiert und mit dem Schreibvorgang verbindet. Kapitel 5 beschäftigt sich mit dem feuilletonistischen Spätwerk, in dem mit dem Kino und dem Café auch die Orte des Erinnerns und Schreibens Teil der Wiener Topographie werden. Film und Verhängnis. Blitzlichter auf ein Leben (2001) ist eine Autobiographie, die auf das Verschwinden der eigenen Person zielt.
Resumo:
Mittelalterliche Mehrsprachigkeit - gemeint ist sowohl das Verhältnis von Latein und Volkssprache als auch das Nebeneinander unterschiedlicher Volkssprachen oder volkssprachiger Varietäten - ist als bedeutender Aspekt vormoderner Textkultur und Spracherfahrung bisher nicht einmal innerhalb der Einzeldisziplinen ausreichend gewürdigt und systematisch erfasst worden. Zielführend wäre ein interdisziplinärer und methodenübergreifender Zugriff. Der Aufsatz bietet als Vorstudie dazu einen systematisierenden Überblick über prägende Sprachkontaktsituationen der westeuropäischen Sprachen und Literaturen vom 7. Jahrhundert bis ins Spätmittelalter und erarbeitet eine grundlegende Typologie. Die mittelalterliche Wahrnehmung von Sprache muss per se mit Multilingualität verbunden gewesen sein: erstens im Sinne einer fast überall gleichzeitigen Präsenz mehrerer gesprochener und geschriebener Volkssprachen, zweitens im Sinne der prinzipiellen Einbettung von Schriftlichkeit und Bildungskultur in eine anderssprachige (lateinische) Tradition, drittens im Sinne der intellektuell-mentalen Abbildung des Abstraktums ,,Sprache" auf das Lateinische, also eine Sprache, die niemals Muttersprache war. Sprach-, literatur- und kulturtheoretische Konsequenzen können nur angedeutet werden: Die Auswirkungen einer solchen neurologischen Prägung auf die - von ,,bilingual brains" getragenen - Textkulturen des Mittelalters könnten konzeptuelle Repräsentationen von Raum, Zeit, Emotionen oder Personalität betreffen.
Resumo:
In dieser Thèse "Studien zu einer Poetik des Engels" wird anhand verschiedener Texte aus verschiedenen Epochen, jedoch mit Akzent auf der zweiten Hàlfte des 20. Jahrhunderts, dem Erscheinen von Engeln in literarischen Texten nachgegangen, mit besonderem Augenmerk auf der poetologischen Dimension, die mit der Darstellung von Engelfiguren zusammenhàngt, und mit besonderer Beriicksichtigung der Konsequenzen fur die Texte, in denen sie erscheinen.¦Literarische Texte bieten nàmlich einen geeigneten Immanenzort fur diese Art Epi-phanie an, eine Erscheinungsmoglichkeit fur Engel. Die Art und Weise, wie Dichterinnen und Dichter sie in ihren Texten erscheinen lassen, steht im Zentrum des Interesses dieser Studien. Wie verkorpern sich Engel in diesen Texten? Wie sprechen sie und wie kann mit ihnen und von ihnen gesprochen werden? Welche poetischen Funktionen ubernehmen diese Figuren, von denen die Dichter sprechen und die sie sprechen lassen? Welche poetischen Dynamiken entstehen in diesen Texten durch die Engelserscheinungen?¦Der Engel, der traditionell als Bote (gr. angelos), als Vermittler oder Obermittler gilt, hat im Medium Literatur (oder Text) selbst auch eine mediale Funktion inne, sodass Engel und Literatur einander widerspiegeln und Engeltexte zu Orten werden, an denen eine sprachliche und poetologische Auseinandersetzung stattfinden kann, die sowohl der Lite¬ratur (und auch etwa dem Erzàhler) als auch dem Engel inhàrent ist und es mit dem Ver- mittlungs(un)vermogen zu tun hat.¦In diesen Studien geht es darum, die produktive und dynamische Leistung des Engels (oder der Engel) im Schreib- und im Leseprozess zu erfahren und nachzuzeichnen. Durch ihre Pràsenz im Text bringen Engel einen Perspektivenwechsel ins Spiel, der die Auseinandersetzung mit dem Text pràgt und den Text selbst beeinflusst, sodass die Engel diese Texte zur Schreib- und Leseerfahrung werden lassen.¦Engelsdichtungen erweisen sich als durch und durch relational, sie involvieren den Dichter sowie auch den Leser, der ihnen - lesend - begegnet, und beeinflussen den ganzen Text und seine Dynamik, da diese Figuren unmoglich von ihm abstrahiert werden konnen. Engel erweisen sich auch als àusserst subversiv, wenn sie dem nicht entsprechen, was man von ihnen erwartet, wenn sie sich den geltenden (sozialen, politischen, aber auch - im Medium Literatur - sprachlichen oder dichterischen) Regeln widersetzen.¦In einem einleitenden Kapitel wird die Fragestellung skizziert und anhand vieler Textbeispiele verfeinert, sowie auch die Methode veranschaulicht. Darin werden Texte von Wallace Stevens (The Necessary Angel), Jean Paul (Der Tod eines Engels), Wim Wenders und Peter Handke (Himmel über Berlin) betrachtet, sowie auch etwa von Goethe, Morike, Andersen, Tolstoi (Der Engel Gottes oder Wovon die Menschen leben), Pseudo- Strieker (Der König im Bade), Baudelaire.¦Die weiteren Kapitel sind als Fallstudien zu verstehen und setzen sich mit einzelnen Texten auseinander, die von verschiedenen Autoren und zu verschiedenen Zeiten geschrieben wurden und sich von der Gattung und der Lange her stark unterscheiden:¦- "Zwischen Lichterscheinung und Holzfigur": Zu einem Tagebucheintrag von Franz Kafka (25. Juni 1914).¦- "Schweigende Boten": Zu Heinrich Bolls Roman Der Engel schwieg [1949-1951 niedergeschrieben, erst 1992 posthum erschienen).¦- "Ein subversiver Engel - wider Willen": Zu Fridrich Dürrenmatts Komödie Ein Engel kommt nach Babylon (1. Fassung 1954, 2. Fassung 1957, Neufassung 1980).¦- Zu drei Engel-Texten von Ilse Aichinger:¦- "Ein errungenes Weihnachten - im Spiel": Zum Romankapitel Das grosse Spiel (6. Kapitel aus dem Roman Die grössere Hoffnung, 1948),¦- "»Habt ihr den Engel gesehen?« - Wenn sich mit den Engeln auf einmal jeder Sinn entzieht": Zur Erzählung Engel in der Nacht (1949; aus dem Band Der Gefesselte),¦- "Ober Verwirrung hinweg - Zur subversiven Poetik eines Engels": Zur Erzâhlung Der Engel (1963; aus dem Band Eliza Eliza).¦Im Schlusskapitel, in dem vergleichende Beobachtungen zu diesen Texten und ihren Analysen, Hervorhebungen der Gemeinsamkeiten und entscheidende poetische Merkmale dieser Texte erwähnt werden, wird nicht das Ziel angestrebt, eine Synthese aus dieser Vielfältigkeit zu machen, die in den verschiedenen Kapiteln zum Vorschein kommt. Vielmehr wird gezeigt, wie fruchtbar die Auseinandersetzung mit Engeln in diesen Texten ist und wie diese Texte sich von ihrem 'Gegenstand' berühren lassen, je auf unterschiedliche Weise.
Resumo:
Das Forschungsfeld der vorliegenden Arbeit sind die Deutsch als Zweitsprache-Kurse, die im Zeitraum der Untersuchung (2002) noch vom Sprachverband Deutsch (vormals: für ausländische Arbeitnehmer) unterstützt wurden. Da sich mit diesem wichtigen und breiten Anwendungsgebiet der Fremdsprachendidaktik bisher nur wenige Studien beschäftigt haben, ist als Forschungsansatz eine explorativ-qualitative Herangehensweise gewählt worden. Die Kurse für erwachsene Einwanderer zeichnen sich durch eine große Heterogenität der Teilnehmenden aus, dementsprechend ist die zentrale Fragestellung der Studie, in der das professionelle Handlungswissen von Lehrenden erforscht wird, die Frage der Binnendifferenzierung. Ausgehend von bereits seit den siebziger Jahren des 20. Jahrhunderts vorliegenden allgemeindidaktischen Entwürfen zur Arbeit mit heterogenen Lerngruppen, in denen das Prinzip der Binnendifferenzierung entwickelt wird, werden im ersten Teil der Arbeit didaktische Möglichkeiten der Binnendifferenzierung im Deutsch als Zweitsprache-Unterricht entworfen. Ausgehend von diesem Vorverständnis ist dann die Befragung der Lehrenden durchgeführt worden, die im zweiten Teil der Arbeit dargestellt, ausgewertet und diskutiert wird. Dabei geht es nicht um eine Evaluation der Praxis anhand vorgefasster Kategorien, sondern im Gegenteil um eine explorative Erforschung des Problembereiches der Arbeit mit heterogenen Lerngruppen im Deutsch als Zweitsprache Unterricht. Anhand der am Material entwickelten Kategorien werden zentrale didaktische Gesichtspunkte herausgearbeitet, die charakteristisch für das Forschungsfeld Deutsch als Zweitsprache mit erwachsenen Einwanderern sind. Diese Kategorien sind nicht deckungsgleich mit denen, die durch die hermeneutisch orientierte Vorgehensweise im ersten Teil der Arbeit entwickelt werden konnten. Anhand dieser Diskrepanz wird das Theorie-Praxis-Verhältnis der didaktischen Forschung und Lehre aufgeschlüsselt und kritisch betrachtet. Ausblick der Arbeit ist der Verweis auf die Professionalisierungsdebatte und die Notwendigkeit einer praxisbezogenen Forschung, welche die Bedürfnisse von Lehrenden direkt einbezieht und im Sinne einer Aktionsforschung gleichzeitig zur Weiterbildung der Lehrenden beiträgt. Nur auf diesem Weg kann die Unterrichtspraxis unmittelbar weiter entwickelt werden. Aus der vorliegenden Studie ergeben sich viel versprechende Anknüpfungspunkte für kooperative Aktionsforschungsprojekte, die von den Lehrenden in den Interviews angeregt werden.
Resumo:
Während zum Genehmigungsrecht zahlreiche Abhandlungen in der juristischen Literatur und eine große Zahl von Urteilen veröffentlicht sind, hält sich die Forschung und praktische Behandlung zum Aufsichtsrecht in Grenzen. Diese Arbeit vertieft das Verständnis, für die spezifische Verknüpfung und gegenseitige Abhängigkeit der Eröffnungskontrollen und der begleitenden Kontrollen im deutschen Arbeits-, Umwelt- und Verbraucherschutzrecht. Zentraler Punkt dieser Arbeit ist die Entwicklung von Grundlinien der begleitenden Aufsicht im Gewerbeaufsichtsrecht. Dazu ist es erforderlich die verschiedenen Randbedingungen gewerbeaufsichtlichen Handelns in den Blick zu nehmen. Es ist ein Blick auf die zu erwartende Ausbildung eines neuen Rationalitätstyps der gesellschaftlichen Entwicklung (2.), auf die Typisierung von Staats-, Gewerbe- und Wirtschaftsaufsicht und deren spezifischen Handlungsmustern, den festgestellten Defiziten des Aufsichtsrechts und des Aufsichtshandelns der begleitenden Kontrollen und den festgestellten tatsächlichen Wirkungen des Aufsichtssystems (3.) zu werfen. Weitere Einflüsse auf das Aufsichtsmodell der Zukunft kommen aus der erwarteten und wünschenswerten Entwicklung des Genehmigungsrechts (4.), der Art und Weise wie die begleitende Aufsicht gehandhabt werden kann und soll (5.) und den Privatisierungstypen und deren verfassungsrechtlichen Grenzen (6.). Die Arbeit schließt mit der Formulierung eines Zukunftsmodells, dass die Gewichte zwischen der Eröffnungs- und der begleitender Kontrolle, sowie das Verhältnis zwischen Staat, Privaten Dritten und Unternehmen, neu ordnet. Insgesamt wird in dieser Arbeit für ein Aufsichtsmodell plädiert, indem der Staat stärker in die Verantwortung für eine risikoorientierte begleitende Aufsicht genommen wird. Maßstäbe für die Risikoregelung sind künftig komplett vom Staat aufzustellen. Staatliche Aufsicht kann sich zukünftig auf Rahmenregelungen und Rahmenprüfungen bei den risikoreichsten Anlagen, Tätigkeiten und Produkten beschränken. Private Dritte können die Detailermittlungen und Freigaben bearbeiten. Private Sachverständige können künftig die Hauptlast detaillierter und zeitintensiver Kontrolltätigkeiten bei Anlagen, Tätigkeiten und Produkten mit mittlerem Risiko übernehmen. Anlagen, Tätigkeiten und Produkte mit geringem Risiko können der Eigenüberwachung überlassen werden. Im Gegenzug muss der Staat in deutlich stärkeren Maß die Aufsicht über die Kontrolleure anhand einheitlicher Maßstäbe organisieren und durchführen. Die Anforderungen an die Kontrolleure müssen künftig allgemein, sowohl für die externen Kontrollpersonen als auch für die internen Aufsichtspersonen, gelten und überprüft werden.
Resumo:
In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Seit der Gründung der Ökologischen Landbaubewegung wird über eine angepasste Bodenbearbeitung diskutiert. Konservierende Bodenbearbeitungssysteme scheinen zwar dem Prinzip des Erhalts und der Förderung der Bodenfruchtbarkeit am ehesten gerecht zu werden, wurden bislang vor allem auf Grund der Unkrautregulierung im Ökolandbau abgelehnt. Anhand von vier Methoden (Literaturrecherche, Feldversuch, Umfrage und Experteninterviews) werden die unterschiedlichen Aspekte der konservierenden Bodenbearbeitung in der Praxis des Ökolandbaus untersucht. In dem dreijährigen Feldversuch wurde das Mulchsaatverfahren nach Getreide mit zwei verschiedenen Bearbeitungstiefen (5-7 cm und 13-15 cm) zur Zwischenfrucht mit dem Pflugeinsatz (25 cm) verglichen. Dabei zeigt sich, dass bei der tiefen Bearbeitung mit dem Grubber der für einen nennenswerten Erosionsschutz notwendige Bedeckungsgrad von 30 % nicht zuverlässig erreicht wird. Gleichzeitig sprechen die geringen Unterschiede in den Trockenmasseerträgen der flachen und tiefen Grubbervarianten für eine flachere Bearbeitung. Die Ergebnisse der Umfrage zur Bodenbearbeitung, die 367 Ökobauern beantworteten, zeigen, dass die Mehrheit der Betriebe (56%) bei der Grundbodenbearbeitung den Pflug einsetzt. 6% der befragten Ökobauern geben an ohne Pflug zu wirtschaften. Etwa 40 % der befragten Ökobauern verzichten zumindest einmal in ihrer Fruchtfolge auf den Pflug. Die Experteninterviews von drei Ökobauern verdeutlichen die unterschiedlichen Maßnahmen der konservierenden Bodenbearbeitung. Ein komplexes System wird erkennbar, das sich durch langjährige Erfahrung der Landwirte entwickelt hat. Anhand der Ergebnisse ist eine konservierende Bodenbearbeitung im Ökolandbau möglich und im Sinne der Förderung der Bodenfruchtbarkeit auch als notwendig zu bezeichnen. Allerdings ist dabei die Bodenbearbeitung nicht isoliert zu betrachten. Im Konzept der konservierenden Bodenbearbeitung sind Entscheidungen in vielen Teilbereichen des Ökobetriebs zum Erfolg notwendig.
Resumo:
Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.