12 resultados para Online Operations

em Universitätsbibliothek Kassel, Universität Kassel, Germany


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Informations- und Kommunikationstechnologien über das Internet bieten vielfältige Möglichkeit innovative Lernumgebungen zu schaffen. Mit der Zukunftswerkstatt-online wird der Versuch unternommen, die Lernmethode Zukunftswerkstatt, als telekooperative Lernumgebung zu gestalten. Die Entwicklung dieser internetbasierten Lernumgebung und das damit verbundene Dissertationsvorhaben zeichnet sich vornehmlich durch den partizipativen und prozessorientierten Austausch sowohl mit Informatikern als auch mit potentiellen Nutzern in einer Pilotphase aus. Die zentrale Motivation des Forschungsvorhabens erklärt sich über die Entwicklung von Möglichkeiten Lernergruppen Raum zu geben sich ihrer persönlich bedeutsamen Probleme bewusst zu werden, Ideen für Lösungsstrategien zu entwickeln und konkrete Veränderungen anzugehen. Das Forschungsdesign dieser Arbeit bedient sich verschiedener Erhebungs- und Auswertungsmethoden der empirischen Sozialforschung mit dem Ziel, die Grenzen einzelner Methoden zu minimieren, um zu differenzierten Erkenntnissen im Forschungsfeld zu gelangen. Die Evaluation des Forschungsvorhabens begründet sich vorwiegend aus Methoden der qualitativen Sozialforschung (teilnehmende Beobachtung, schriftlichen Befragung, linguistische Analyse der Chatbeiträge sowie fokussierte Interviews im Rahmen von drei Fallstudien). Im Sinne der Handlungs- und Aktionsforschung liegt das Forschungsinteresse zum einen in der Entwicklung der Zukunftswerkstatt-online unter besonderer Berücksichtigung der Funktionen, Softwareergonomie, zum anderen hinsichtlich der Frage nach den Möglichkeiten zur kreativen Gestaltung von Lernprozesse. Im Fokus des Interesses stehen daher folgende Forschungsfragen: 1. Wie muss eine Zukunftswerkstatt-online gestaltet werden, um als effektives Problemlöse- und Erschließungsinstrument für offene Möglichkeitsräume zu funktionieren? 2. Was kann eine Zukunftswerkstatt-online hinsichtlich der kommunikativen Aufgaben für Lehrende und Lerngruppen leisten? 3. Welche Lehr-/ Lernvoraussetzungen lassen sich für die Anwendung einer Zukunftswerkstatt-online formulieren? Aufgrund der Auswertungen der o.g. Evaluationsmethoden lassen sich folgende signifikante Aspekte bezüglich des Anregungsgehalts der Zukunftswerkstatt-online benennen: 1. Aspekt der Situiertheit: Die Mischung aus Vorstrukturierung durch die drei Phasen der Methode auf der einen Seiten und den Freiraum hinsichtlich der inhaltlichen Gestaltung wird von den Probanden als positiv und unterstützend für den Lernprozess bewertet. 2. Aspekt der multiplen Perspektive: Mit der Zukunftswerkstatt-online wird eine strukturierte Zusammenarbeit in Gruppen ermöglicht. Problemfelder können somit aus unterschiedlichen Perspektiven dargestellt werden. 3. Aspekt des Lernens im sozialen Kontext: Der "Community" Gedanke des Internets wird während der Arbeit mit der Zukunftswerkstatt-online gefördert. Es lassen sich drei unterstützende Faktoren hierzu benennen: - Der vorgegebene Interaktionsrahmen der Methode. - Die von den Lernenden gewählte Inhalte. - Die Auswahl der Kooperationspartner. Hinsichtlich der Förderung von Schlüsselkompetenzen kann die Zukunftswerkstatt-online folgendes leisten: Förderung der fachlichen Kompetenz: Die Zukunftswerkstatt-online stärkt mediale Kompetenzen der Teilnehmer. Darüber hinaus werden durch die Möglichkeiten der Dokumentation des Diskussionsverlaufs und der Speicherung von Daten, Informationen nachhaltige gesichert. Förderung der sozialen Kompetenz: Aufgrund der Arbeit in einem weites gehenden hierarchiefreien Raum wird vernetzten Arbeiten und synergetischer Austausch der Teilnehmer ermöglicht. Förderung der personalen Kompetenz: Die kommunikativen Kompetenzen werden gefördert sowie die Entwicklung eines Methodenrepertoires für die Gestaltung von Gruppenprozessen in eigenen Handlungsfeldern der Teilnehmer ausgebaut. Folgende Voraussetzung lassen sich aus den Forschungsergebnissen ableiten, die bei der Durchführung einer Zukunftswerkstatt-online unterstützend wirken: Für Lernende: - Grundlagen der Computer und Internetkompetenz, - Hohe Selbstlernkompetenz, - Kompetenzen zur Kooperation, - Schriftsprachliche Kompetenz und - Einbringung einer persönlich bedeutsamen Problemstellung. Für Lehrende: - Kompetenzen in der Organisation/Administration von Lernprozessen, - Unterstützung der Lernprozesse durch klare Anweisungen und Hilfestellungen bei der Bewältigung von Problemen. Zusammenfassend lässt sich feststellen, dass die Zukunftswerkstatt-online den aktiven Umgang, die Auseinandersetzung und die Konstruktion von handlungsorientiertem Wissen fördert. Darüber hinaus eröffnet sie in einem noch relativ neuen Wirkungsfeld der Pädagogik Möglichkeiten, neue Formen des Lehren und Lernens im virtuellen Raum zu erproben, zu evaluieren und perspektivisch weiter zu entwickeln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Speckle Pattern Shearing Interferometrie (Shearografie) ist eine speckle-interferometrische Messmethode und zeichnet sich durch die ganzflächige, berührungslose Arbeitsweise, hohe räumliche Auflösung und hohe Messempfindlichkeit aus. Diese Dissertation beinhaltet die neue bzw. weitere Entwicklung der Shearografie zur qualitativen Schwingungsbeobachtung und zur quantitativen Schwingungsmessung. Für die qualitative Schwingungsbeobachtung in Echtzeit werden die Optimierung des Zeitmittelungsverfahrens und die neue entwickelte Online-Charakterisierung von Streifenmustern mit statistischen Verfahren vorgestellt. Auf dieser Basis können sowohl eine genaue Fehlstellen-Detektion bei der zerstörungsfreien Materialprüfung als auch eine präzise Resonanzuntersuchung zeitsparend und vollautomatisch durchgeführt werden. Für die quantitative Schwingungsmessung wird eine sog. dynamische Phasenschiebe-Technik neu entwickelt, welche durch die Einführung eines synchron zum Objekt schwingenden Referenzspiegels realisiert wird. Mit dieser Technik ermöglicht das Zeitmittelungsverfahren die Amplituden und Phasen einer Objektschwingung quantitativ zu ermitteln. Auch eine Weiterentwicklung des stroboskopischen Verfahrens in Kombination mit zeitlicher Phasenverschiebung wird in der Arbeit präsentiert, womit der gesamte Prozess der Schwingungsmessung und -rekonstruktion beschleunigt und automatisch durchgeführt wird. Zur Bestimmung des Verschiebungsfeldes aus den gemessenen Amplituden und Phasen des Verformungsgradienten stellt diese Arbeit auch eine Weiterentwicklung des Summationsverfahrens vor. Das Verfahren zeichnet sich dadurch aus, dass die Genauigkeit des ermittelten Verschiebungsfelds unabhängig von der Sheargröße ist und gleichzeitig das praktische Problem - Unstetigkeit - gelöst wird. Eine quantitative Messung erfordert eine genaue Kalibrierung der gesamten Messkette. Ein auf dem Least-Square-Verfahren basierendes Kalibrierverfahren wird in der Arbeit zur Kalibrierung der statischen und dynamischen Phasenverschiebung vorgestellt. Auch die Ermittelung der Sheargröße mit Hilfe der 1D- bzw. 2D-Kreuz-Korrelation wird präsentiert. Zum Schluss wurde die gesamte Entwicklung durch eine Vergleichsmessung mit einem handelsüblichen Scanning-Laser-Doppler-Vibrometer experimentell verifiziert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nach einem einleitenden ersten Kapitel wird im zweiten Kapitel der Stand der Technik für Regelungs- und Monitoringsysteme mit vernetzten Systemen dargestellt. Daraus wird die Motivation zur Entwicklung neuer, kostengünstiger Systeme abgeleitet. Im dritten Kapitel folgt eine Darstellung der verschiedenen Arten marktverfügbarer Embedded Systems und dafür geeigneter Betriebs­systeme. Anforderungen an verteilte Regelungssysteme, unterschiedliche Strukturen dieser Systeme und deren Vor- und Nachteile sind Gegenstand des vierten Kapitels. Anhand von Beispielen aus den Bereichen Erzeugungsmanagement für den Betrieb von KWK-Anlagen, Energieverbrauchsmonitoring und Smart-Metering wird der Einsatz von verteilten Regelungs- und Monitoringsystemen im fünften Kapitel dargestellt. Im folgenden sechsten Kapitel wird die Bedeutung normierter Kommunikation für den Einsatz in verteilten Systemen sowie dafür vorhandene Standards aus der elektrischen Energieversorgungstechnik und der Automatisierungstechnik behandelt. Der Stand der Internet-Technik für verteilte Systeme ist Gegenstand des siebten Kapitels. Dabei werden zunächst die verschiedenen drahtlosen und drahtgebundenen Kommunikationsmedien vorgestellt und ihre Eigenschaften und die Rand­bedingungen für ihren Einsatz erörtert. Ebenso werden technische Probleme beim Einsatz der Internet-Technik aufgezeigt und Lösungsmöglichkeiten für diese Probleme dargestellt. Es folgt eine Übersicht von Netzwerkdiensten, die für den Betrieb von verteilten Systemen notwendig sind. Außerdem werden Techniken zur Überwachung von verteilten Systemen behandelt. Kapitel acht zeigt Sicherheitsrisiken bei der Nutzung des Internets auf und bewertet verschiedene Techniken zur Absicherung des Netzwerkverkehrs. Kapitel neun stellt ein Internet-basiertes Client-Server-System zur Online-Visualisierung von Anlagendaten im Webbrowser mit Hilfe von Java-Applets und XML-RPC vor. Die Visualisierung von Anlagendaten auf Mobiltelefonen mit Hilfe des Wireless Application Protocol sowie die dafür notwendige Software und Infrastruktur ist Gegenstand des zehnten Kapitels. Im elften Kapitel wird eine neuartige Software für die Simulation von dezentralen Energiesystemen und deren Regelungs­systemen auf Basis von virtuellen Maschinen, virtuellen Netzwerken und einer thermischen Simulationsumgebung vorgestellt sowie deren Anwendung für die Reglerentwicklung erklärt. Verschiedene Techniken für die Installation von Betriebssystemen und Software für die Embedded Systems eines verteilten Systems werden im Kapitel zwölf untersucht. Im Kapitel 13 werden verschiedene Technologien zur Konfiguration und Parametrierung von Regelungssystemen in der industriellen Prozess- und Fertigungs­automatisierung hinsichtlich ihrer Eignung für dezentrale Energiesysteme analysiert. Anschließend wird eine Software zur Installation und Parametrierung von Monitoringsystemen sowie der dazugehörigen Infrastruktur vorgestellt. Kapitel 14 beschäftigt sich mit Anforderungen an die Hardware für verteilte Systeme und mit Maßnahmen zur Erhöhung der Betriebs- und der Datensicherheit. Im 15. Kapitel werden die in den bisherigen Kapiteln vorgestellten Techniken anhand eines großen verteilten Monitoringsystems und anhand eines Power Flow and Power Quality Management Systems auf Basis von verteilten Embedded Systems evaluiert. Kapitel 16 fasst die Ergebnisse der Arbeit zusammen und enthält einen Ausblick auf zukünftige Entwicklungen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diese Arbeit behandelt die Problemstellung der modellbasierten Fehlerdiagnose für Lipschitz-stetige nichtlineare Systeme mit Unsicherheiten. Es wird eine neue adaptive Fehlerdiagnosemethode vorgestellt. Erkenntnisse und Verfahren aus dem Bereich der Takagi-Sugeno (TS) Fuzzy-Modellbildung und des Beobachterentwurfs sowie der Sliding-Mode (SM) Theorie werden genutzt, um einen neuartigen robusten und nichtlinearen TS-SM-Beobachter zu entwickeln. Durch diese Zusammenführung lassen sich die jeweiligen Vorteile beider Ansätze miteinander kombinieren. Bedingungen zur Konvergenz des Beobachters werden als lineare Matrizenungleichungen (LMIs) abgeleitet. Diese Bedingungen garantieren zum einen die Stabilität und liefern zum anderen ein direktes Entwurfsverfahren für den Beobachter. Der Beobachterentwurf wird für die Fälle messbarer und nicht messbarer Prämissenvariablen angegeben. Durch die TS-Erweiterung des in dieser Arbeit verwendeten SM-Beobachters ist es möglich, den diskontinuierlichen Rückführterm mithilfe einer geeigneten kontinuierlichen Funktion zu approximieren und dieses Signal daraufhin zur Fehlerdiagnose auszuwerten. Dies liefert eine Methodik zur Aktor- und Sensorfehlerdiagnose nichtlinearer unsicherer Systeme. Gegenüber anderen Ansätzen erlaubt das Vorgehen eine quantitative Bestimmung und teilweise sogar exakte Rekonstruktion des Fehlersignalverlaufs. Darüber hinaus ermöglicht der Ansatz die Berechnung konstanter Fehlerschwellen direkt aus dem physikalischen Vorwissen über das betrachtete System. Durch eine Erweiterung um eine Betriebsphasenerkennung wird es möglich, die Schwellenwerte des Fehlerdiagnoseansatzes online an die aktuelle Betriebsphase anzupassen. Hierdurch ergibt sich in Betriebsphasen mit geringen Modellunsicherheiten eine deutlich erhöhte Fehlersensitivität. Zudem werden in Betriebsphasen mit großen Modellunsicherheiten Falschalarme vermieden. Die Kernidee besteht darin, die aktuelle Betriebsphase mittels eines Bayes-Klassikators in Echtzeit zu ermitteln und darüber die Fehlerschwellen an die a-priori de nierten Unsicherheiten der unterschiedlichen Betriebsphasen anzupassen. Die E ffektivität und Übertragbarkeit der vorgeschlagenen Ansätze werden einerseits am akademischen Beispiel des Pendelwagens und anderseits am Beispiel der Sensorfehlerdiagnose hydrostatisch angetriebener Radlader als praxisnahe Anwendung demonstriert.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This thesis investigates a method for human-robot interaction (HRI) in order to uphold productivity of industrial robots like minimization of the shortest operation time, while ensuring human safety like collision avoidance. For solving such problems an online motion planning approach for robotic manipulators with HRI has been proposed. The approach is based on model predictive control (MPC) with embedded mixed integer programming. The planning strategies of the robotic manipulators mainly considered in the thesis are directly performed in the workspace for easy obstacle representation. The non-convex optimization problem is approximated by a mixed-integer program (MIP). It is further effectively reformulated such that the number of binary variables and the number of feasible integer solutions are drastically decreased. Safety-relevant regions, which are potentially occupied by the human operators, can be generated online by a proposed method based on hidden Markov models. In contrast to previous approaches, which derive predictions based on probability density functions in the form of single points, such as most likely or expected human positions, the proposed method computes safety-relevant subsets of the workspace as a region which is possibly occupied by the human at future instances of time. The method is further enhanced by combining reachability analysis to increase the prediction accuracy. These safety-relevant regions can subsequently serve as safety constraints when the motion is planned by optimization. This way one arrives at motion plans that are safe, i.e. plans that avoid collision with a probability not less than a predefined threshold. The developed methods have been successfully applied to a developed demonstrator, where an industrial robot works in the same space as a human operator. The task of the industrial robot is to drive its end-effector according to a nominal sequence of grippingmotion-releasing operations while no collision with a human arm occurs.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The objective of this study was to develop an internet-based seminar framework applicable for landscape architecture education. This process was accompanied by various aims. The basic expectation was to keep the main characteristics of landscape architecture education also in the online format. On top of that, four further objectives were anticipated: (1) training of competences for virtual team work, (2) fostering intercultural competence, (3) creation of equal opportunities for education through internet-based open access and (4) synergy effects and learning processes across institutional boundaries. This work started with the hypothesis that these four expected advantages would compensate for additional organisational efforts caused by the online delivery of the seminars and thus lead to a sustainable integration of this new learning mode into landscape architecture curricula. This rationale was followed by a presentation of four areas of knowledge to which the seminar development was directly related (1) landscape architecture as a subject and its pedagogy, (2) general learning theories, (3) developments in the ICT sector and (4) wider societal driving forces such as global citizenship and the increase of open educational resources. The research design took the shape of a pedagogical action research cycle. This approach was constructive: The author herself is teaching international landscape architecture students so that the model could directly be applied in practice. Seven online seminars were implemented in the period from 2008 to 2013 and this experience represents the core of this study. The seminars were conducted with varying themes while its pedagogy, organisation and the technological tools remained widely identical. The research design is further based on three levels of observation: (1) the seminar design on the basis of theory and methods from the learning sciences, in particular educational constructivism, (2) the seminar evaluation and (3) the evaluation of the seminars’ long term impact. The seminar model itself basically consists of four elements: (1) the taxonomy of learning objectives, (2) ICT tools and their application and pedagogy, (3) process models and (4) the case study framework. The seminar framework was followed by the presentation of the evaluation findings. The major findings of this study can be summed up as follows: Implementing online seminars across educational and national boundaries was possible both in term of organisation and technology. In particular, a high level of cultural diversity among the seminar participants has definitively been achieved. However, there were also obvious obstacles. These were primarily competing study commitments and incompatible schedules among the students attending from different academic programmes, partly even in different time zones. Both factors had negative impact on the individual and working group performances. With respect to the technical framework it can be concluded that the majority of the participants were able to use the tools either directly without any problem or after overcoming some smaller problems. Also the seminar wiki was intensively used for completing the seminar assignments. However, too less truly collaborative text production was observed which could be improved by changing the requirements for the collaborative task. Two different process models have been applied for guiding the collaboration of the small groups and both were in general successful. However, it needs to be said that even if the students were able to follow the collaborative task and to co-construct and compare case studies, most of them were not able to synthesize the knowledge they had compiled. This means that the area of consideration often remained on the level of the case and further reflections, generalisations and critique were largely missing. This shows that the seminar model needs to find better ways for triggering knowledge building and critical reflection. It was also suggested to have a more differentiated group building strategy in future seminars. A comparison of pre- and post seminar concept maps showed that an increase of factual and conceptual knowledge on the individual level was widely recognizable. Also the evaluation of the case studies (the major seminar output) revealed that the students have undergone developments of both the factual and the conceptual knowledge domain. Also their self-assessment with respect to individual learning development showed that the highest consensus was achieved in the field of subject-specific knowledge. The participants were much more doubtful with regard to the progress of generic competences such as analysis, communication and organisation. However, 50% of the participants confirmed that they perceived individual development on all competence areas the survey had asked for. Have the additional four targets been met? Concerning the competences for working in a virtual team it can be concluded that the vast majority was able to use the internet-based tools and to work with them in a target-oriented way. However, there were obvious differences regarding the intensity and activity of participation, both because of external and personal factors. A very positive aspect is the achievement of a high cultural diversity supporting the participants’ intercultural competence. Learning from group members was obviously a success factor for the working groups. Regarding the possibilities for better accessibility of educational opportunities it became clear that a significant number of participants were not able to go abroad during their studies because of financial or personal reasons. They confirmed that the online seminar was to some extent a compensation for not having been abroad for studying. Inter-institutional learning and synergy was achieved in so far that many teachers from different countries contributed with individual lectures. However, those teachers hardly ever followed more than one session. Therefore, the learning effect remained largely within the seminar learning group. Looking back at the research design it can be said that the pedagogical action research cycle was an appropriate and valuable approach allowing for strong interaction between theory and practice. However, some more external evaluation from peers in particular regarding the participants’ products would have been valuable.