11 resultados para Online-Forschung

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Informations- und Kommunikationstechnologien über das Internet bieten vielfältige Möglichkeit innovative Lernumgebungen zu schaffen. Mit der Zukunftswerkstatt-online wird der Versuch unternommen, die Lernmethode Zukunftswerkstatt, als telekooperative Lernumgebung zu gestalten. Die Entwicklung dieser internetbasierten Lernumgebung und das damit verbundene Dissertationsvorhaben zeichnet sich vornehmlich durch den partizipativen und prozessorientierten Austausch sowohl mit Informatikern als auch mit potentiellen Nutzern in einer Pilotphase aus. Die zentrale Motivation des Forschungsvorhabens erklärt sich über die Entwicklung von Möglichkeiten Lernergruppen Raum zu geben sich ihrer persönlich bedeutsamen Probleme bewusst zu werden, Ideen für Lösungsstrategien zu entwickeln und konkrete Veränderungen anzugehen. Das Forschungsdesign dieser Arbeit bedient sich verschiedener Erhebungs- und Auswertungsmethoden der empirischen Sozialforschung mit dem Ziel, die Grenzen einzelner Methoden zu minimieren, um zu differenzierten Erkenntnissen im Forschungsfeld zu gelangen. Die Evaluation des Forschungsvorhabens begründet sich vorwiegend aus Methoden der qualitativen Sozialforschung (teilnehmende Beobachtung, schriftlichen Befragung, linguistische Analyse der Chatbeiträge sowie fokussierte Interviews im Rahmen von drei Fallstudien). Im Sinne der Handlungs- und Aktionsforschung liegt das Forschungsinteresse zum einen in der Entwicklung der Zukunftswerkstatt-online unter besonderer Berücksichtigung der Funktionen, Softwareergonomie, zum anderen hinsichtlich der Frage nach den Möglichkeiten zur kreativen Gestaltung von Lernprozesse. Im Fokus des Interesses stehen daher folgende Forschungsfragen: 1. Wie muss eine Zukunftswerkstatt-online gestaltet werden, um als effektives Problemlöse- und Erschließungsinstrument für offene Möglichkeitsräume zu funktionieren? 2. Was kann eine Zukunftswerkstatt-online hinsichtlich der kommunikativen Aufgaben für Lehrende und Lerngruppen leisten? 3. Welche Lehr-/ Lernvoraussetzungen lassen sich für die Anwendung einer Zukunftswerkstatt-online formulieren? Aufgrund der Auswertungen der o.g. Evaluationsmethoden lassen sich folgende signifikante Aspekte bezüglich des Anregungsgehalts der Zukunftswerkstatt-online benennen: 1. Aspekt der Situiertheit: Die Mischung aus Vorstrukturierung durch die drei Phasen der Methode auf der einen Seiten und den Freiraum hinsichtlich der inhaltlichen Gestaltung wird von den Probanden als positiv und unterstützend für den Lernprozess bewertet. 2. Aspekt der multiplen Perspektive: Mit der Zukunftswerkstatt-online wird eine strukturierte Zusammenarbeit in Gruppen ermöglicht. Problemfelder können somit aus unterschiedlichen Perspektiven dargestellt werden. 3. Aspekt des Lernens im sozialen Kontext: Der "Community" Gedanke des Internets wird während der Arbeit mit der Zukunftswerkstatt-online gefördert. Es lassen sich drei unterstützende Faktoren hierzu benennen: - Der vorgegebene Interaktionsrahmen der Methode. - Die von den Lernenden gewählte Inhalte. - Die Auswahl der Kooperationspartner. Hinsichtlich der Förderung von Schlüsselkompetenzen kann die Zukunftswerkstatt-online folgendes leisten: Förderung der fachlichen Kompetenz: Die Zukunftswerkstatt-online stärkt mediale Kompetenzen der Teilnehmer. Darüber hinaus werden durch die Möglichkeiten der Dokumentation des Diskussionsverlaufs und der Speicherung von Daten, Informationen nachhaltige gesichert. Förderung der sozialen Kompetenz: Aufgrund der Arbeit in einem weites gehenden hierarchiefreien Raum wird vernetzten Arbeiten und synergetischer Austausch der Teilnehmer ermöglicht. Förderung der personalen Kompetenz: Die kommunikativen Kompetenzen werden gefördert sowie die Entwicklung eines Methodenrepertoires für die Gestaltung von Gruppenprozessen in eigenen Handlungsfeldern der Teilnehmer ausgebaut. Folgende Voraussetzung lassen sich aus den Forschungsergebnissen ableiten, die bei der Durchführung einer Zukunftswerkstatt-online unterstützend wirken: Für Lernende: - Grundlagen der Computer und Internetkompetenz, - Hohe Selbstlernkompetenz, - Kompetenzen zur Kooperation, - Schriftsprachliche Kompetenz und - Einbringung einer persönlich bedeutsamen Problemstellung. Für Lehrende: - Kompetenzen in der Organisation/Administration von Lernprozessen, - Unterstützung der Lernprozesse durch klare Anweisungen und Hilfestellungen bei der Bewältigung von Problemen. Zusammenfassend lässt sich feststellen, dass die Zukunftswerkstatt-online den aktiven Umgang, die Auseinandersetzung und die Konstruktion von handlungsorientiertem Wissen fördert. Darüber hinaus eröffnet sie in einem noch relativ neuen Wirkungsfeld der Pädagogik Möglichkeiten, neue Formen des Lehren und Lernens im virtuellen Raum zu erproben, zu evaluieren und perspektivisch weiter zu entwickeln.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Ziel dieser wissenschaftlichen Hausarbeit ist es, Geschlechterrollen bürgerlicher Kinder zu untersuchen, die auf Atelierfotografien abgebildet sind. Dazu soll das phänomenologisch-hermeneutische Verfahren der „seriell-ikonografische[n] Fotoanalyse“ von Pilarczyk und Mietzner in einer empirischen Untersuchung genutzt werden. Erforscht wird damit, inwieweit sich die Darstellungen von Mädchen und Jungen unterscheiden. In meiner Untersuchung gehe ich folgendermaßen vor: Im zweiten Kapitel wird zunächst die Bedeutung der Fotografie für die Erziehungswissenschaft reflektiert. Dabei steht die Frage im Vordergrund: Welche Vorteile und Eigenarten hat die Fotografie im Bezug zu anderen Quellen? Besonders ihr Verhältnis zur Wirklichkeit und die Rolle des Zufalls machen es schwierig, sie als Primärquelle zu verwenden. Deshalb werden anschließend beide Faktoren untersucht. Darauf folgen (im dritten Kapitel) die Beschreibung des Modells der seriell-ikonografischen Analyse von Pilarczyk und Mietzner sowie Rezensionen zu diesem Ansatz und eine genaue Erläuterung, wie die Methode für diese Arbeit genutzt werden soll. Bevor das Verfahren jedoch zur Anwendung kommt, werden zunächst bürgerlicher Kontext und Struktur der bürgerlichen Familie - innerhalb deren sich die Kinder auf den Fotografien bewegen - dargestellt. Anschließend wird der Kontext der Atelierfotografie vorgestellt, um eine zeitgemäße Lesart der Kinderfotografien zu gewährleisten. Im sechsten Kapitel folgt die Analyse des von mir zusammengestellten Bildfundus. Die daraus gewonnen Hypothesen werden in einem Fazit zusammengefasst. Es schließt sich eine Überprüfung und Erweiterung der Hypothesen anhand von schriftlichen Quellen in Kapitel 7 an. Zusammenfassung der Ergebnisse sowie Ausblick sind im Schlusskapitel zu lesen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Jedes Jahr entstehen an der Universität Kassel hunderte Wissenschaftliche Hausarbeiten, die oft ungenutzt im Archiv des Prüfungsamtes verstauben. Oftmals liegt nach Abschluss der Prüfungsphase nicht einmal den Betreuerinnen und Betreuern ein Exemplar vor. Nicht wenige dieser Arbeiten leisten aber einen wichtigen Erkenntnisbeitrag zu Themen von Unterricht, Schulentwicklung und Lehrerbildung und könnten somit für Studium, Forschung, Lehre, Studienseminar sowie Schulpraxis genutzt werden. Hierfür müssten die Arbeiten allerdings recherchierbar und öffentlich zugänglich sein. An dieser Stelle setzte ein Projekt des Zentrums für Lehrerbildung der Universität Kassel an. Ziel war es, Wissenschaftliche Hausarbeiten von Lehramtsstudierenden der Universität Kassel zu Themen von Unterricht, Schulentwicklung und Lehrerbildung öffentlich zugänglich zu machen. Der vorliegende Abschlussbericht gibt zunächst einen Überblick über die Verfügbarkeit studentischer Abschlussarbeiten in Deutschland und analysiert die technischen Voraussetzungen für Open Access Publikationen auf Universitätsebene. Darauf aufbauend wird die konkrete Umsetzung des Veröffentlichungsprozesses im Rahmen des Projekts beschrieben. Im Anhang findet sich neben Arbeitsmaterial, das für eine Umsetzung in anderen Kontexten angepasst werden kann, eine Liste der bisher veröffentlichten Arbeiten.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.