2 resultados para machine traffic
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Diese Arbeit behandelt Controlled Traffic Farming (CTF) Anbausysteme, bei denen für alle Arbeitsgänge satellitengesteuert immer dieselben Fahrspuren benutzt werden. Lässt sich mit CTF die Belastung des Bodens verringern und die Effizienz von Direktsaat-Anbausystemen steigern? Neben agronomischen und bodenphysikalischen Parametern wurden Auswirkungen von Lenksystemen und Umsetzungsmöglichkeiten von CTF in die Praxis untersucht. Die Analyse einer CTF-Umsetzung unter europäischen Bedingungen mit der Verwendung von Standardmaschinen zeigte, dass sich CTF-Anbausysteme mit den heute zur Verfügung stehenden Maschinen für Dauergrünland, Mähdruschfrüchte und Mais auf kleiner und grösser strukturierten Flächen relativ einfach mechanisieren lassen. Bei Zuckerrüben und Kartoffeln können Kompromisse notwendig sein. Generell erfordern CTF-Anbausysteme eine sorgfältige Planung und Umsetzung in die Praxis. Im dreijährigen Feldversuch (Winterweizen, Wintergerste, Kunstwiese mit Kleegrasmischung) auf einem Lehmboden wurde CTF-Direktsaat mit konventionell zufällig befahrenen Direktsaat- und Pflugverfahren verglichen. Unter CTF zeigte sich eine Differenzierung der nicht, gering und intensiv befahrenen Varianten. Auf dem vorliegenden kompakten Boden mit 1150 mm Jahresniederschlag waren die Unterschiede zwischen den nicht befahrenen Flächen und den mit niedrigem Kontaktflächendruck befahrenen Flächen eher gering. In den nicht befahrenen Flächen entwickelten Eindringwiderstand und Kohlendioxidgehalt der Bodenluft nach drei Jahren signifikant bessere Werte. Bodendichte und Porosität zeigten hingegen keinen eindeutig interpretierbaren Trend. Aufgrund teils suboptimaler Feldaufgänge liess sich keine generelle agronomische Tendenz ableiten. Die intensive Befahrung der Pflegefahrgassen zeigte allerdings klar negative bodenkundliche und planzenbauliche Auswirkungen. Es bietet sich daher an, vor allem für Pflegearbeiten permanent dieselben Fahrspuren zu nutzen. In der Untersuchung zu den Auswirkungen von Lenksystemen zeigten sich signifikante Vorteile von Lenksystemen in einer Verminderung der Fahrerbelastung und einer höheren Lenkgenauigkeit vor allem bei grossen Arbeitsbreiten ohne Spuranreisser. Die meisten anderen Messparameter waren mit Lenksystem leicht vorteilhafter als ohne, unterschieden sich aber nicht signifikant voneinander. Fahrer und naturräumliche Gegebenheiten wie die Schlagform hatten einen wesentlich grösseren Einfluss. Gesamthaft betrachtet erweitert CTF in Kombination mit weiteren Bodenschutzmass-nahmen die Möglichkeiten, Bodenverdichtungen zu vermeiden, den Bedarf an energieintensiver Bodenlocke-rung zu reduzieren und die Entwicklung einer stabileren Bodenstruktur mit höherer Tragfähigkeit zu fördern. Zusammen mit einer an Kultur und Anbausystem angepassten Saatbettbereitung und den in geraden Reihen einfacher durchführbaren mechanischen Pflegemassnahmen ergeben sich gute Voraussetzungen für die Gestaltung agronomisch leistungsfähiger und ökologisch nachhaltiger Anbausysteme.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.