44 resultados para Virtuelle Lehre


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zur Erholung in die Natur gehen oder doch lieber zur Natursimulation greifen? Intuitiv würden die meisten Menschen der Natur einen größeren Erholungswert zusprechen als einer Natursimulation. Aber ist die Natur tatsächlich erholsamer? In der Naturerholungsforschung (Restorative Environment Research) kommen häufig Natursimulationen zum Einsatz, um die erholsame Wirkung von Natur zu ermitteln. Problematisch ist dabei, dass deren ökologische Validität und Vergleichbarkeit noch nicht empirisch abgesichert ist. Vorliegende Arbeit setzt an dieser methodischen und empirischen Lücke an. Sie überprüft sowohl die ökologische Validität als auch die Vergleichbarkeit von Natursimulationen. Dazu wird die erholsame Wirkung von zwei Natursimulationen im Vergleich zu der physisch-materiellen Natur empirisch untersucht und verglichen. Darüber hinaus werden Aspekte des subjektiven Erlebens und der Bewertung im Naturerholungskontext exploriert. Als bedeutsamer Wirkmechanismus wird die erlebnisbezogene Künstlichkeit/Natürlichkeit angesehen, die sich auf die Erlebnisqualität von Natursimulationen und der physisch-materiellen Natur bezieht: Natursimulationen weisen im Vergleich zur physisch-materiellen Natur eine reduzierte Erlebnisqualität auf (erlebnisbezogene Künstlichkeit), z.B. eine reduzierte Qualität und Quantität der Sinnesansprache. Stellt man einen derartigen Vergleich nicht nur mit der physisch-materiellen Natur, sondern mit unterschiedlichen Natursimulationstypen an, dann zeigen sich auch hier Unterschiede in der erlebnisbezogenen Künstlichkeit. Beispielsweise unterscheidet sich ein Naturfoto von einem Naturfilm durch das Fehlen von auditiven und bewegten Stimuli. Diese erlebnisbezogene Künstlichkeit kann die erholsame Wirkung von Natur - direkt oder indirekt über Bewertungen - hemmen. Als Haupthypothese wird angenommen, dass mit zunehmendem Ausmaß an erlebnisbezogener Künstlichkeit die erholsame Wirkung der Natur abnimmt. Dem kombinierten Feld- und Laborexperiment liegt ein einfaktorielles Vorher-Nachher-Design zugrunde. Den 117 Probanden wurde zunächst eine kognitiv und affektiv belastende Aufgabe vorgelegt, danach folgte die Erholungsphase. Diese bestand aus einem Spaziergang, der entweder in der physisch-materiellen Natur (urbaner Park) oder in einer der beiden audio-visuellen Natursimulationen (videogefilmter vs. computergenerierter Spaziergang durch selbigen urbanen Park) oder auf dem Laufband ohne audio-visuelle Darbietung stattfand. Die erlebnisbezogene Künstlichkeit/Natürlichkeit wurde also wie folgt operationlisiert: die physische Natur steht für die erlebnisbezogene Natürlichkeit. Die beiden Natursimulationen stehen für die erlebnisbezogene Künstlichkeit. Die computergenerierte Version ist im Vergleich zur Videoversion erlebnisbezogen künstlicher, da sie weniger fotorealistisch ist. Die Zuordnung zu einer der vier experimentellen Erholungssettings erfolgte nach dem Zufallsprinzip. Die Effekte von moderater Bewegung wurden in den Natursimulationen durch das Laufen auf dem Laufband kontrolliert. Die Beanspruchungs- bzw. Erholungsreaktionen wurden auf kognitiver (Konzentriertheit, Aufmerksamkeitsleistung) affektiver (3 Befindlichkeitsskalen: Wachheit, Ruhe, gute Stimmung) und physiologischer (Alpha-Amylase) Ebene gemessen, um ein umfassendes Bild der Reaktionen zu erhalten. Insgesamt zeigen die Ergebnisse, dass die beiden Natursimulationen trotz Unterschiede in der erlebnisbezogenen Künstlichkeit/Natürlichkeit zu relativ ähnlichen Erholungsreaktionen führen, wie die physisch-materielle Natur. Eine Ausnahme stellen eine der drei affektiven (Wachheit) und die physiologische Reaktion dar: Probanden der physisch-materiellen Naturbedingung geben an wacher zu sein und weisen - wider erwarten - eine höhere physiologische Erregung auf. Demnach ist die physisch-materielle Natur nicht grundsätzlich erholsamer als die Natursimulationen. Die Hypothese ließ sich somit nicht bestätigen. Vielmehr deuten sich komplexe Erholungsmuster und damit auch unterschiedliche Erholungsqualitäten der Settings an, die einer differenzierten Betrachtung bedürfen. Für die ökologische Validität von Natursimulationen gilt, dass diese nur mit Einschränkung als ökologisch valide bezeichnet werden können, d.h. nur für bestimmte, aber nicht für alle Erholungsreaktionen. Die beiden Natursimulationen führen ebenfalls trotz Unterschiede in der erlebnisbezogenen Künstlichkeit zu ähnlichen Erholungsreaktionen und können somit als gleichwertig behandelt werden. Erstaunlicherweise kommt es hier zu ähnlichen Erholungsreaktionen, obwohl die bestehenden Unterschiede von den Probanden wahrgenommen und die erlebnisbezogen künstlichere computergenerierte Version negativer bewertet wird. Aufgrund der nicht erwartungskonformen Ergebnisse muss das Erklärungskonzept der erlebnisbezogenen Künstlichkeit/Natürlichkeit infrage gestellt werden. Alternative Erklärungskonzepte für die Ergebnisse („Ungewissheit“, mentale räumliche Modelle), die sich andeutenden unterschiedlichen Erholungsqualitäten der Settings, methodische Einschränkungen sowie die praktische Bedeutung der Ergebnisse werden kritisch diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der Mathematikdidaktik gibt es die weit verbreitete Auffassung, durch die Verwendung von Simulationen Lernprozesse zu unterstützen. Dies hat mich im Rahmen meiner Dissertation dazu bewogen, erstens eine Werkzeuganalyse des Simulationspotentials der Software Fathom durchzuführen und zweitens exemplarische Analysen dazu, wie Lernende mit der Software arbeiten. Bei der Werkzeuganalyse standen vor allem folgende zwei Fragen im Mittelpunkt: Was bietet die Software an Simulationspotential? Wie gut und leicht lassen sich Zufallsexperimente in Fathom realisieren? Dieses Wissen ist für die praktische Anwendung der Software und die diagnostische Kompetenz der Lehrkräfte, die Schüler bei der Arbeit mit der Software unterstützen wollen, essentiell. Mit dieser Werkzeuganalyse wurde ein allgemeineres Instrument entwickelt, mit dem man das Simulationspotential auch anderer Werkzeugsoftware wie Excel, Tinkerplots oder den TI-Nspire systematisch analysieren könnte. Im zweiten Teil werden die Ergebnisse einer Fallstudie zur Kompetenz von Studierenden beim Bearbeiten von stochastischen Simulations- und Modellierungsproblemen vorgestellt. Die insgesamt aufwendige Analyse von Mikroprozessen macht sehr viel relevante und wichtige Details im Umgang von Studierenden mit Simulationsaufgaben erkennbar. Auch ist als Ergebnis der Studie nicht nur einfach ein differenziertes Bild der Kompetenzen von Studierenden anzusehen. Vielmehr liegt ein wesentlicher Beitrag auch in der Konzeptualisierung unterschiedlicher Kompetenzen und ihrer Wechselwirkung, wie sie bei der Bearbeitung von mathematischen Aufgaben mit dem Computer auftreten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit sucht nach den Erwerbstätigkeiten und Kompetenzen deutscher Philosophie-Absolvent(inn)en und nach der Wahrheit ihrer angeblichen Arbeitslosenquote. Anhand von EU-Papieren werden Anknüpfungspunkte für kompetenzorientierte Philosophie-Lehre aufgezeigt. Es wird dargestellt, wie Philosoph(inn)en die Kompetenzdiskussion sowohl in Deutschland als auch – über die OECD – international beeinfluss(t)en und mit gestalt(et)en. Die notwendige Voraussetzung für Lernen und Kompetenzentwicklung ist die Plastizität unseres Gehirnes. Biographisch beginnt das Lernen in der Schule und findet sein vorläufiges Ende in der Arbeitswelt. Diese Arbeit versucht, den zwischen schul- und arbeitsweltorientierten Kompetenzforschern bestehenden Graben zu überwinden. Problemlösefähigkeit in internationalen Teams wird für die gelingende Zukunft unserer Welt als wesentliche fachübergreifende Kompetenz erachtet. Für den in Deutschland sehr einflussreichen Kompetenzforscher John Erpenbeck ist die Selbstorganisationsfähigkeit ein Ankerpunkt. Für den Entwickler der noch heute in Deutschland anerkannten Kompetenzbereiche (Sach-, Sozial- und Selbstkompetenz), Heinrich Roth, liegt die "Höchstform menschlicher Handlungsfähigkeit" in der moralischen Selbstbestimmung. Die Zukunft wird zeigen, inwieweit das Verständnis von Regeln, Werten und Normen bei den arbeitswissenschaftlichen Kompetenzforschern im Korsett einer jeweiligen Unternehmensphilosophie verbleibt, oder inwieweit die Selbstorganisationsfähigkeit im Sinne einer moralischen Selbstbestimmung des Einzelnen die Unternehmensphilosophie prägt. In literaturhistorischen Anhängen wird ein assoziatives Feld von Einzelinformationen dargeboten, die einen roten Faden im Sinne eines sich aufbauenden Argumentes vermissen lassen. Vordergründig wird nur ein loses Band von John Dewey und William James bis Heinrich Roth und die heutige Zeit hergestellt. Hintergründig will der Autor darauf hinweisen, dass es einen Unterschied macht, ob sich der Begriff "Selbstorganisationsfähigkeit" aus einer physikalischen oder einer biologischen Wurzel entwickelt. Der Autor sieht keinen zwingenden Grund für das Bestehen eines eigenständigen Studienganges "Philosophie". Allerdings kann er auch nicht erkennen, warum er abgeschafft werden sollte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit der Gründung der Ökologischen Landbaubewegung wird über eine angepasste Bodenbearbeitung diskutiert. Konservierende Bodenbearbeitungssysteme scheinen zwar dem Prinzip des Erhalts und der Förderung der Bodenfruchtbarkeit am ehesten gerecht zu werden, wurden bislang vor allem auf Grund der Unkrautregulierung im Ökolandbau abgelehnt. Anhand von vier Methoden (Literaturrecherche, Feldversuch, Umfrage und Experteninterviews) werden die unterschiedlichen Aspekte der konservierenden Bodenbearbeitung in der Praxis des Ökolandbaus untersucht. In dem dreijährigen Feldversuch wurde das Mulchsaatverfahren nach Getreide mit zwei verschiedenen Bearbeitungstiefen (5-7 cm und 13-15 cm) zur Zwischenfrucht mit dem Pflugeinsatz (25 cm) verglichen. Dabei zeigt sich, dass bei der tiefen Bearbeitung mit dem Grubber der für einen nennenswerten Erosionsschutz notwendige Bedeckungsgrad von 30 % nicht zuverlässig erreicht wird. Gleichzeitig sprechen die geringen Unterschiede in den Trockenmasseerträgen der flachen und tiefen Grubbervarianten für eine flachere Bearbeitung. Die Ergebnisse der Umfrage zur Bodenbearbeitung, die 367 Ökobauern beantworteten, zeigen, dass die Mehrheit der Betriebe (56%) bei der Grundbodenbearbeitung den Pflug einsetzt. 6% der befragten Ökobauern geben an ohne Pflug zu wirtschaften. Etwa 40 % der befragten Ökobauern verzichten zumindest einmal in ihrer Fruchtfolge auf den Pflug. Die Experteninterviews von drei Ökobauern verdeutlichen die unterschiedlichen Maßnahmen der konservierenden Bodenbearbeitung. Ein komplexes System wird erkennbar, das sich durch langjährige Erfahrung der Landwirte entwickelt hat. Anhand der Ergebnisse ist eine konservierende Bodenbearbeitung im Ökolandbau möglich und im Sinne der Förderung der Bodenfruchtbarkeit auch als notwendig zu bezeichnen. Allerdings ist dabei die Bodenbearbeitung nicht isoliert zu betrachten. Im Konzept der konservierenden Bodenbearbeitung sind Entscheidungen in vielen Teilbereichen des Ökobetriebs zum Erfolg notwendig.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Heilkräuter sind während des Trocknungsprozesses zahlreichen Einflüssen ausgesetzt, welche die Qualität des Endproduktes entscheidend beeinflussen. Diese Forschungsarbeit beschäftigt sich mit der Trocknung von Zitronenmelisse (Melissa officinalis .L) zu einem qualitativ hochwertigen Endprodukt. Es werden Strategien zur Trocknung vorgeschlagen, die experimentelle und mathematische Aspekte mit einbeziehen, um bei einer adäquaten Produktivität die erforderlichen Qualitätsmerkmale im Hinblick auf Farbeänderung und Gehalt an ätherischen Ölen zu erzielen. Getrocknete Zitronenmelisse kann zurzeit, auf Grund verschiedener Probleme beim Trocknungsvorgang, den hohen Qualitätsanforderungen des Marktes nicht immer genügen. Es gibt keine standardisierten Informationen zu den einzelnen und komplexen Trocknungsparametern. In der Praxis beruht die Trocknung auf Erfahrungswerten, bzw. werden Vorgehensweisen bei der Trocknung anderer Pflanzen kopiert, und oftmals ist die Trocknung nicht reproduzierbar, oder beruht auf subjektiven Annäherungen. Als Folge dieser nicht angepassten Wahl der Trocknungsparameter entstehen oftmals Probleme wie eine Übertrocknung, was zu erhöhten Bruchverlusten der Blattmasse führt, oder eine zu geringe Trocknung, was wiederum einen zu hohen Endfeuchtegehalt im Produkt zur Folge hat. Dies wiederum mündet zwangsläufig in einer nicht vertretbaren Farbänderung und einen übermäßigen Verlust an ätherischen Ölen. Auf Grund der unterschiedlichen thermischen und mechanischen Eigenschaften von Blättern und Stängel, ist eine ungleichmäßige Trocknung die Regel. Es wird außerdem eine unnötig lange Trocknungsdauer beobachtet, die zu einem erhöhten Energieverbrauch führt. Das Trocknen in solaren Tunneln Trocknern bringt folgendes Problem mit sich: wegen des ungeregelten Strahlungseinfalles ist es schwierig die Trocknungstemperatur zu regulieren. Ebenso beeinflusst die Strahlung die Farbe des Produktes auf Grund von photochemischen Reaktionen. Zusätzlich erzeugen die hohen Schwankungen der Strahlung, der Temperatur und der Luftfeuchtigkeit instabile Bedingungen für eine gleichmäßige und kontrollierbare Trocknung. In Anbetracht der erwähnten Probleme werden folgende Forschungsschwerpunkte in dieser Arbeit gesetzt: neue Strategien zur Verbesserung der Qualität werden entwickelt, mit dem Ziel die Trocknungszeit und den Energieverbrauch zu verringern. Um eine Methodik vorzuschlagen, die auf optimalen Trocknungsparameter beruht, wurden Temperatur und Luftfeuchtigkeit als Variable in Abhängigkeit der Trocknungszeit, des ätherischer Ölgehaltes, der Farbänderung und der erforderliche Energie betrachtet. Außerdem wurden die genannten Parametern und deren Auswirkungen auf die Qualitätsmerkmale in solaren Tunnel Trocknern analysiert. Um diese Ziele zu erreichen, wurden unterschiedliche Ansätze verfolgt. Die Sorption-Isothermen und die Trocknungskinetik von Zitronenmelisse und deren entsprechende Anpassung an verschiedene mathematische Modelle wurden erarbeitet. Ebenso wurde eine alternative gestaffelte Trocknung in gestufte Schritte vorgenommen, um die Qualität des Endproduktes zu erhöhen und gleichzeitig den Gesamtenergieverbrauch zu senken. Zusätzlich wurde ein statistischer Versuchsplan nach der CCD-Methode (Central Composite Design) und der RSM-Methode (Response Surface Methodology) vorgeschlagen, um die gewünschten Qualitätsmerkmalen und den notwendigen Energieeinsatz in Abhängigkeit von Lufttemperatur und Luftfeuchtigkeit zu erzielen. Anhand der gewonnenen Daten wurden Regressionsmodelle erzeugt, und das Verhalten des Trocknungsverfahrens wurde beschrieben. Schließlich wurde eine statistische DOE-Versuchsplanung (design of experiments) angewandt, um den Einfluss der Parameter auf die zu erzielende Produktqualität in einem solaren Tunnel Trockner zu bewerten. Die Wirkungen der Beschattung, der Lage im Tunnel, des Befüllungsgrades und der Luftgeschwindigkeit auf Trocknungszeit, Farbänderung und dem Gehalt an ätherischem Öl, wurde analysiert. Ebenso wurden entsprechende Regressionsmodelle bei der Anwendung in solaren Tunneltrocknern erarbeitet. Die wesentlichen Ergebnisse werden in Bezug auf optimale Trocknungsparameter in Bezug auf Qualität und Energieverbrauch analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Kern der vorliegenden Arbeit ist die Erforschung von Methoden, Techniken und Werkzeugen zur Fehlersuche in modellbasierten Softwareentwicklungsprozessen. Hierzu wird zuerst ein von mir mitentwickelter, neuartiger und modellbasierter Softwareentwicklungsprozess, der sogenannte Fujaba Process, vorgestellt. Dieser Prozess wird von Usecase Szenarien getrieben, die durch spezielle Kollaborationsdiagramme formalisiert werden. Auch die weiteren Artefakte des Prozess bishin zur fertigen Applikation werden durch UML Diagrammarten modelliert. Es ist keine Programmierung im Quelltext nötig. Werkzeugunterstützung für den vorgestellte Prozess wird von dem Fujaba CASE Tool bereitgestellt. Große Teile der Werkzeugunterstützung für den Fujaba Process, darunter die Toolunterstützung für das Testen und Debuggen, wurden im Rahmen dieser Arbeit entwickelt. Im ersten Teil der Arbeit wird der Fujaba Process im Detail erklärt und unsere Erfahrungen mit dem Einsatz des Prozesses in Industrieprojekten sowie in der Lehre dargestellt. Der zweite Teil beschreibt die im Rahmen dieser Arbeit entwickelte Testgenerierung, die zu einem wichtigen Teil des Fujaba Process geworden ist. Hierbei werden aus den formalisierten Usecase Szenarien ausführbare Testfälle generiert. Es wird das zugrunde liegende Konzept, die konkrete technische Umsetzung und die Erfahrungen aus der Praxis mit der entwickelten Testgenerierung dargestellt. Der letzte Teil beschäftigt sich mit dem Debuggen im Fujaba Process. Es werden verschiedene im Rahmen dieser Arbeit entwickelte Konzepte und Techniken vorgestellt, die die Fehlersuche während der Applikationsentwicklung vereinfachen. Hierbei wurde darauf geachtet, dass das Debuggen, wie alle anderen Schritte im Fujaba Process, ausschließlich auf Modellebene passiert. Unter anderem werden Techniken zur schrittweisen Ausführung von Modellen, ein Objekt Browser und ein Debugger, der die rückwärtige Ausführung von Programmen erlaubt (back-in-time debugging), vorgestellt. Alle beschriebenen Konzepte wurden in dieser Arbeit als Plugins für die Eclipse Version von Fujaba, Fujaba4Eclipse, implementiert und erprobt. Bei der Implementierung der Plugins wurde auf eine enge Integration mit Fujaba zum einen und mit Eclipse auf der anderen Seite geachtet. Zusammenfassend wird also ein Entwicklungsprozess vorgestellt, die Möglichkeit in diesem mit automatischen Tests Fehler zu identifizieren und diese Fehler dann mittels spezieller Debuggingtechniken im Programm zu lokalisieren und schließlich zu beheben. Dabei läuft der komplette Prozess auf Modellebene ab. Für die Test- und Debuggingtechniken wurden in dieser Arbeit Plugins für Fujaba4Eclipse entwickelt, die den Entwickler bestmöglich bei der zugehörigen Tätigkeit unterstützen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Jedes Jahr entstehen an der Universität Kassel hunderte Wissenschaftliche Hausarbeiten, die oft ungenutzt im Archiv des Prüfungsamtes verstauben. Oftmals liegt nach Abschluss der Prüfungsphase nicht einmal den Betreuerinnen und Betreuern ein Exemplar vor. Nicht wenige dieser Arbeiten leisten aber einen wichtigen Erkenntnisbeitrag zu Themen von Unterricht, Schulentwicklung und Lehrerbildung und könnten somit für Studium, Forschung, Lehre, Studienseminar sowie Schulpraxis genutzt werden. Hierfür müssten die Arbeiten allerdings recherchierbar und öffentlich zugänglich sein. An dieser Stelle setzte ein Projekt des Zentrums für Lehrerbildung der Universität Kassel an. Ziel war es, Wissenschaftliche Hausarbeiten von Lehramtsstudierenden der Universität Kassel zu Themen von Unterricht, Schulentwicklung und Lehrerbildung öffentlich zugänglich zu machen. Der vorliegende Abschlussbericht gibt zunächst einen Überblick über die Verfügbarkeit studentischer Abschlussarbeiten in Deutschland und analysiert die technischen Voraussetzungen für Open Access Publikationen auf Universitätsebene. Darauf aufbauend wird die konkrete Umsetzung des Veröffentlichungsprozesses im Rahmen des Projekts beschrieben. Im Anhang findet sich neben Arbeitsmaterial, das für eine Umsetzung in anderen Kontexten angepasst werden kann, eine Liste der bisher veröffentlichten Arbeiten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Ziel der Dissertation war die Untersuchung des Computereinsatzes zur Lern- und Betreuungsunterstützung beim selbstgesteuerten Lernen in der Weiterbildung. In einem bisher konventionell durchgeführten Selbstlernkurs eines berufsbegleitenden Studiengangs, der an das Datenmanagement der Bürodatenverarbeitung heranführt, wurden die Kursunterlagen digitalisiert, die Betreuung auf eine online-basierte Lernbegleitung umgestellt und ein auf die neuen Lernmedien abgestimmtes Lernkonzept entwickelt. Dieses neue Lernkonzept wurde hinsichtlich der Motivation und der Akzeptanz von digitalen Lernmedien evaluiert. Die Evaluation bestand aus zwei Teilen: 1. eine formative, den Entwicklungsprozess begleitende Evaluation zur Optimierung der entwickelten Lernsoftware und des eingeführten Lernkonzeptes, 2. eine sowohl qualitative wie quantitative summative Evaluation der Entwicklungen. Ein zentraler Aspekt der Untersuchung war die freie Wahl der Lernmedien (multimediale Lernsoftware oder konventionelles Begleitbuch) und der Kommunikationsmedien (online-basierte Lernplattform oder die bisher genutzten Kommunikationskanäle: E-Mail, Telefon und Präsenztreffen). Diese Zweigleisigkeit erlaubte eine differenzierte Gegenüberstellung von konventionellen und innovativen Lernarrangements. Die Verbindung von qualitativen und quantitativen Vorgehensweisen, auf Grund derer die subjektiven Einstellungen der Probanden in das Zentrum der Betrachtung rückten, ließen einen Blickwinkel auf den Nutzen und die Wirkung der Neuen Medien in Lernprozessen zu, der es erlaubte einige in der Literatur als gängig angesehene Interpretationen in Frage zu stellen und neu zu diskutieren. So konnten durch eine Kategorisierung des Teilnehmerverhaltens nach online-typisch und nicht online-typisch die Ursache-Wirkungs-Beziehungen der in vielen Untersuchungen angeführten Störungen in Online-Seminaren verdeutlicht werden. In den untersuchten Kursen zeigte sich beispielsweise keine Abhängigkeit der Drop-out-Quote von den Lern- und Betreuungsformen und dass diese Quote mit dem neuen Lernkonzept nur geringfügig beeinflusst werden konnte. Die freie Wahl der Lernmedien führte zu einer gezielten Nutzung der multimedialen Lernsoftware, wodurch die Akzeptanz dieses Lernmedium stieg. Dagegen war die Akzeptanz der Lernenden gegenüber der Lernbegleitung mittels einer Online-Lernplattform von hoch bis sehr niedrig breit gestreut. Unabhängig davon reichte in allen Kursdurchgängen die Online-Betreuung nicht aus, so dass Präsenztreffen erbeten wurde. Hinsichtlich der Motivation war die Wirkung der digitalen Medien niedriger als erwartet. Insgesamt bieten die Ergebnisse Empfehlungen für die Planung und Durchführung von computerunterstützten, online-begleiteten Kursen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Als Kräuter werden alle krautigen Pflanzen, die nicht zu den Gehölzen und zu den Gräsern zählen, bezeichnet. Sie erfüllen wichtige Funktionen bei der Förderung von Insekten und der Ästhetik von Landschaften und tragen zur Verbesserung des Grundfutters landwirtschaftlicher Nutztiere bei. Ansaaten von Kräutern in geschlossene Vegetationsdecken und bei Neuanlagen sind durch deren langandauernde Entwicklungsphasen sehr schwierig zu realisieren. Eine innovative Option zur Etablierung in Grünlandbeständen kann die Herstellung von Kräutersoden sein. Ziel dieser Arbeit ist die Untersuchung der Eignung von Kräutern zur Sodenproduktion. Durch unterschiedliche Merkmale von Kräutern und Gräsern können Probleme bei der Entwicklung von Kräutersoden auftreten. In dieser Arbeit sind verschiedene Anbauversuche mit Wurzelkürzungen und Ertragsbestimmungen sowie Sodenverpflanzungen, die Ermittlung eines optimalen Trägermaterials und Untersuchungen zur Entwicklung eines Sodenschneidersystems durchgeführt worden. Wurzelkürzungen an Kräutern ergaben, dass die Bildung der Gesamtwurzelmasse, der Wurzelneubildung und der Masse des Oberbewuchses bei einzelnen Kräutern nur z.T. im Zusammenhang mit der Schnitttiefe stehen und die Entwicklungsstadien der Kräuter keine signifikanten Unterschiede aufzeigen. Hieraus ergibt sich, dass ein Wurzelschnitt generell möglich ist, jedoch verschiedenen Arte von Kräutern unterschiedlich stark auf diesen reagieren. Zu den Entwicklungsstadien, zum Ertrag des Bewuchses und zum Anwurzelungsverhalten von Kräutersoden können in Abhängigkeit vom Vorzuchtsort und im Vergleich zu Fertigrasen keine abschließenden Aussagen getroffen werden. Es besteht daher weiterer Forschungsbedarf. Ein kombinierter Anbau mit Untergräsern eignet sich durch die wuchsverdrängende Wirkung nicht zur Stabilisierung von Kräutersoden. Es konnte aber gezeigt werden, dass Trägermaterial aus Kokosfaser durch die hohe Zugfestigkeit und der Langlebigkeit des Materials geeignet ist. Demzufolge könnte es bei der Produktion von Kräutersoden eine wichtige Rolle spielen. Das Design von Sodenschneidertechnik aus dem Fertigrasenanbau kann nicht auf die Erzeugung von Kräutersoden übertragen werden, da Kräuter andere Wurzelmerkmale als Gräser haben und sich daher spezielle Anforderungen ergeben. Für einen erfolgreichen Schälvorgang von Kräutersoden bedarf es der Entwicklung einer speziell angepassten Technik. Denkbar währe die Verwendung oszillierender Schneideorgane, welche den Schneidevorgang besser ermöglichen könnten. Dadurch, dass ein flacher Wurzelschnitt bei Kräutern erfolgen kann, ist eine Erzeugung von Kräutersoden möglich. Aufgrund von morphologischen Unterschieden zwischen Kräutern und Gräsern unterscheiden sich diese in ihren Anforderungsprofilen, die Techniken der Fertigrasenproduktion können somit nicht direkt auf eine Kräutersodenproduktion übertragen werden. Mit dieser Arbeit fand ein erster Ansatz zur technischen Entwicklung einer Kräutersodenproduktion statt. Die Versuche haben gezeigt, dass noch viele Fragen bei der Entwicklung von Kräutersoden offen sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Auf die Herausforderungen der Internationalisierung antworten die deutschen Hochschulen mit verstärkten Bemühungen zur Integration ausländischer Studierender. Damit ist der sozialwissenschaftlich nicht unumstrittene Integrationsdiskurs der Ausländerpolitik auf dem Campus angekommen. Gleichzeitig stehen transkulturelle Begriffe immer mehr im Fokus der aktuellen sozial-, kultur- und erziehungswissenschaftlichen Diskurse. Auf der Grundlage von Erfahrungen aus einem PROFIN-Projekt an der Universität Kassel setzt sich der Artikel damit auseinander, welche Potentiale eine Internationalisierung aus der Perspektive dieser Diskurse für eine innovative Entwicklung von Lehre und Forschung im internationalen Kontext bietet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit behandelt Controlled Traffic Farming (CTF) Anbausysteme, bei denen für alle Arbeitsgänge satellitengesteuert immer dieselben Fahrspuren benutzt werden. Lässt sich mit CTF die Belastung des Bodens verringern und die Effizienz von Direktsaat-Anbausystemen steigern? Neben agronomischen und bodenphysikalischen Parametern wurden Auswirkungen von Lenksystemen und Umsetzungsmöglichkeiten von CTF in die Praxis untersucht. Die Analyse einer CTF-Umsetzung unter europäischen Bedingungen mit der Verwendung von Standardmaschinen zeigte, dass sich CTF-Anbausysteme mit den heute zur Verfügung stehenden Maschinen für Dauergrünland, Mähdruschfrüchte und Mais auf kleiner und grösser strukturierten Flächen relativ einfach mechanisieren lassen. Bei Zuckerrüben und Kartoffeln können Kompromisse notwendig sein. Generell erfordern CTF-Anbausysteme eine sorgfältige Planung und Umsetzung in die Praxis. Im dreijährigen Feldversuch (Winterweizen, Wintergerste, Kunstwiese mit Kleegrasmischung) auf einem Lehmboden wurde CTF-Direktsaat mit konventionell zufällig befahrenen Direktsaat- und Pflugverfahren verglichen. Unter CTF zeigte sich eine Differenzierung der nicht, gering und intensiv befahrenen Varianten. Auf dem vorliegenden kompakten Boden mit 1150 mm Jahresniederschlag waren die Unterschiede zwischen den nicht befahrenen Flächen und den mit niedrigem Kontaktflächendruck befahrenen Flächen eher gering. In den nicht befahrenen Flächen entwickelten Eindringwiderstand und Kohlendioxidgehalt der Bodenluft nach drei Jahren signifikant bessere Werte. Bodendichte und Porosität zeigten hingegen keinen eindeutig interpretierbaren Trend. Aufgrund teils suboptimaler Feldaufgänge liess sich keine generelle agronomische Tendenz ableiten. Die intensive Befahrung der Pflegefahrgassen zeigte allerdings klar negative bodenkundliche und planzenbauliche Auswirkungen. Es bietet sich daher an, vor allem für Pflegearbeiten permanent dieselben Fahrspuren zu nutzen. In der Untersuchung zu den Auswirkungen von Lenksystemen zeigten sich signifikante Vorteile von Lenksystemen in einer Verminderung der Fahrerbelastung und einer höheren Lenkgenauigkeit vor allem bei grossen Arbeitsbreiten ohne Spuranreisser. Die meisten anderen Messparameter waren mit Lenksystem leicht vorteilhafter als ohne, unterschieden sich aber nicht signifikant voneinander. Fahrer und naturräumliche Gegebenheiten wie die Schlagform hatten einen wesentlich grösseren Einfluss. Gesamthaft betrachtet erweitert CTF in Kombination mit weiteren Bodenschutzmass-nahmen die Möglichkeiten, Bodenverdichtungen zu vermeiden, den Bedarf an energieintensiver Bodenlocke-rung zu reduzieren und die Entwicklung einer stabileren Bodenstruktur mit höherer Tragfähigkeit zu fördern. Zusammen mit einer an Kultur und Anbausystem angepassten Saatbettbereitung und den in geraden Reihen einfacher durchführbaren mechanischen Pflegemassnahmen ergeben sich gute Voraussetzungen für die Gestaltung agronomisch leistungsfähiger und ökologisch nachhaltiger Anbausysteme.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die thermische Verarbeitung von Lebensmitteln beeinflusst deren Qualität und ernährungsphysiologischen Eigenschaften. Im Haushalt ist die Überwachung der Temperatur innerhalb des Lebensmittels sehr schwierig. Zudem ist das Wissen über optimale Temperatur- und Zeitparameter für die verschiedenen Speisen oft unzureichend. Die optimale Steuerung der thermischen Zubereitung ist maßgeblich abhängig von der Art des Lebensmittels und der äußeren und inneren Temperatureinwirkung während des Garvorgangs. Das Ziel der Arbeiten war die Entwicklung eines automatischen Backofens, der in der Lage ist, die Art des Lebensmittels zu erkennen und die Temperatur im Inneren des Lebensmittels während des Backens zu errechnen. Die für die Temperaturberechnung benötigten Daten wurden mit mehreren Sensoren erfasst. Hierzu kam ein Infrarotthermometer, ein Infrarotabstandssensor, eine Kamera, ein Temperatursensor und ein Lambdasonde innerhalb des Ofens zum Einsatz. Ferner wurden eine Wägezelle, ein Strom- sowie Spannungs-Sensor und ein Temperatursensor außerhalb des Ofens genutzt. Die während der Aufheizphase aufgenommen Datensätze ermöglichten das Training mehrerer künstlicher neuronaler Netze, die die verschiedenen Lebensmittel in die entsprechenden Kategorien einordnen konnten, um so das optimale Backprogram auszuwählen. Zur Abschätzung der thermische Diffusivität der Nahrung, die von der Zusammensetzung (Kohlenhydrate, Fett, Protein, Wasser) abhängt, wurden mehrere künstliche neuronale Netze trainiert. Mit Ausnahme des Fettanteils der Lebensmittel konnten alle Komponenten durch verschiedene KNNs mit einem Maximum von 8 versteckten Neuronen ausreichend genau abgeschätzt werden um auf deren Grundlage die Temperatur im inneren des Lebensmittels zu berechnen. Die durchgeführte Arbeit zeigt, dass mit Hilfe verschiedenster Sensoren zur direkten beziehungsweise indirekten Messung der äußeren Eigenschaften der Lebensmittel sowie KNNs für die Kategorisierung und Abschätzung der Lebensmittelzusammensetzung die automatische Erkennung und Berechnung der inneren Temperatur von verschiedensten Lebensmitteln möglich ist.