8 resultados para Regelungstechnik


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Magdeburg, Univ., Fak. für Maschinenbau, Diss., 2012

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit behandelt die Problemstellung der modellbasierten Fehlerdiagnose für Lipschitz-stetige nichtlineare Systeme mit Unsicherheiten. Es wird eine neue adaptive Fehlerdiagnosemethode vorgestellt. Erkenntnisse und Verfahren aus dem Bereich der Takagi-Sugeno (TS) Fuzzy-Modellbildung und des Beobachterentwurfs sowie der Sliding-Mode (SM) Theorie werden genutzt, um einen neuartigen robusten und nichtlinearen TS-SM-Beobachter zu entwickeln. Durch diese Zusammenführung lassen sich die jeweiligen Vorteile beider Ansätze miteinander kombinieren. Bedingungen zur Konvergenz des Beobachters werden als lineare Matrizenungleichungen (LMIs) abgeleitet. Diese Bedingungen garantieren zum einen die Stabilität und liefern zum anderen ein direktes Entwurfsverfahren für den Beobachter. Der Beobachterentwurf wird für die Fälle messbarer und nicht messbarer Prämissenvariablen angegeben. Durch die TS-Erweiterung des in dieser Arbeit verwendeten SM-Beobachters ist es möglich, den diskontinuierlichen Rückführterm mithilfe einer geeigneten kontinuierlichen Funktion zu approximieren und dieses Signal daraufhin zur Fehlerdiagnose auszuwerten. Dies liefert eine Methodik zur Aktor- und Sensorfehlerdiagnose nichtlinearer unsicherer Systeme. Gegenüber anderen Ansätzen erlaubt das Vorgehen eine quantitative Bestimmung und teilweise sogar exakte Rekonstruktion des Fehlersignalverlaufs. Darüber hinaus ermöglicht der Ansatz die Berechnung konstanter Fehlerschwellen direkt aus dem physikalischen Vorwissen über das betrachtete System. Durch eine Erweiterung um eine Betriebsphasenerkennung wird es möglich, die Schwellenwerte des Fehlerdiagnoseansatzes online an die aktuelle Betriebsphase anzupassen. Hierdurch ergibt sich in Betriebsphasen mit geringen Modellunsicherheiten eine deutlich erhöhte Fehlersensitivität. Zudem werden in Betriebsphasen mit großen Modellunsicherheiten Falschalarme vermieden. Die Kernidee besteht darin, die aktuelle Betriebsphase mittels eines Bayes-Klassikators in Echtzeit zu ermitteln und darüber die Fehlerschwellen an die a-priori de nierten Unsicherheiten der unterschiedlichen Betriebsphasen anzupassen. Die E ffektivität und Übertragbarkeit der vorgeschlagenen Ansätze werden einerseits am akademischen Beispiel des Pendelwagens und anderseits am Beispiel der Sensorfehlerdiagnose hydrostatisch angetriebener Radlader als praxisnahe Anwendung demonstriert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thermografie hat sich als wichtiges Hilfsmittel für die Inspektion, Prüfung und Überwachung etabliert. Bei vielen Anwendungen ist eine einzelne Messung allein oft nicht aussagekräftig, z. B. weil Strukturen nicht deutlich genug wahrgenommen werden können, das Messobjekt größer als das Blickfeld der Optik ist oder sich Kenngrößen erst aus dem zeitlichen Verlauf von Messungen ergeben. Zudem erfasst der Bediener der Kamera mit seinen Sinnen und seiner Erfahrung noch viele weitere Einflussgrößen, die bei der Entscheidungsfindung berücksichtigt werden. Eine Automatisierung von Inspektionsaufgaben in unbekannten Umgebungen ist also sehr komplex. In dieser Arbeit werden daher verschiedene Sensordatenfusionsansätze untersucht, die in der Thermografie eingesetzt werden können. Das Ziel bei der Fusion ist dabei die Verbesserung der Qualität der Messung und die Vergrößerung der verfügbaren Menge an nutzbaren Informationen über ein Messobjekt. Die betrachteten Ansätze können entweder nur mit Messungen der Thermografiekamera durchgeführt werden: zur Rauschunterdrückung durch zeitliche Mittelwertbildung, zur Vergrößerung der Schärfentiefe durch Kombination von Aufnahmen mit unterschiedlichem Fokus, zur Vergrößerung der Dynamik (also des Temperaturmessbereichs) durch Kombination von Messungen mit unterschiedlichen Messbereichen und durch Veränderung von Filtereinstellungen zur Unterdrückung von Störungen und zum Ableiten von geometrischen Informationen und Oberflächeneigenschaften. Weiterhin kann durch Veränderung der Kameraausrichtung das Blickfeld vergrößert und die geometrische Auflösung verbessert werden. Die Datenfusion von Thermogrammen kann aber auch mit Daten von anderen bildgebenden Messgeräten durchgeführt werden. Betrachtet wird die Kombination mit normalen Kameras im sichtbaren Spektralbereich, Thermografiekameras in anderen Wellenlängenbereichen und Tiefenkameras/Entfernungsmessgeräten (3D-Scanner, Laserscanner). Dadurch lassen sich für einen Messpunkt mehr Informationen gewinnen und die Messdaten können geometrisch als 3D-Modelle interpretiert und analysiert werden. Die Vielzahl an Informationen soll eine solide Dokumentation und gute (automatische) Analyse ermöglichen. Neben den Grundlagen zur Thermografie, dem punktweisen Zusammenführen von Messdaten und den oben genannten Sensordatenfusionsansätzen, wird ein Anwendungsbeispiel gezeigt. Darin soll die Machbarkeit der automatisierten Inspektionsdurchführung und die Kombination und praktische Anwendung der verschiedenen Sensordatenfusionsansätze gezeigt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Dissertation werden Methoden zur optimalen Aufgabenverteilung in Multirobotersystemen (engl. Multi-Robot Task Allocation – MRTA) zur Inspektion von Industrieanlagen untersucht. MRTA umfasst die Verteilung und Ablaufplanung von Aufgaben für eine Gruppe von Robotern unter Berücksichtigung von operativen Randbedingungen mit dem Ziel, die Gesamteinsatzkosten zu minimieren. Dank zunehmendem technischen Fortschritt und sinkenden Technologiekosten ist das Interesse an mobilen Robotern für den Industrieeinsatz in den letzten Jahren stark gestiegen. Viele Arbeiten konzentrieren sich auf Probleme der Mobilität wie Selbstlokalisierung und Kartierung, aber nur wenige Arbeiten untersuchen die optimale Aufgabenverteilung. Da sich mit einer guten Aufgabenverteilung eine effizientere Planung erreichen lässt (z. B. niedrigere Kosten, kürzere Ausführungszeit), ist das Ziel dieser Arbeit die Entwicklung von Lösungsmethoden für das aus Inspektionsaufgaben mit Einzel- und Zweiroboteraufgaben folgende Such-/Optimierungsproblem. Ein neuartiger hybrider Genetischer Algorithmus wird vorgestellt, der einen teilbevölkerungbasierten Genetischen Algorithmus zur globalen Optimierung mit lokalen Suchheuristiken kombiniert. Zur Beschleunigung dieses Algorithmus werden auf die fittesten Individuen einer Generation lokale Suchoperatoren angewendet. Der vorgestellte Algorithmus verteilt die Aufgaben nicht nur einfach und legt den Ablauf fest, sondern er bildet auch temporäre Roboterverbünde für Zweiroboteraufgaben, wodurch räumliche und zeitliche Randbedingungen entstehen. Vier alternative Kodierungsstrategien werden für den vorgestellten Algorithmus entworfen: Teilaufgabenbasierte Kodierung: Hierdurch werden alle möglichen Lösungen abgedeckt, allerdings ist der Suchraum sehr groß. Aufgabenbasierte Kodierung: Zwei Möglichkeiten zur Zuweisung von Zweiroboteraufgaben wurden implementiert, um die Effizienz des Algorithmus zu steigern. Gruppierungsbasierte Kodierung: Zeitliche Randbedingungen zur Gruppierung von Aufgaben werden vorgestellt, um gute Lösungen innerhalb einer kleinen Anzahl von Generationen zu erhalten. Zwei Umsetzungsvarianten werden vorgestellt. Dekompositionsbasierte Kodierung: Drei geometrische Zerlegungen wurden entworfen, die Informationen über die räumliche Anordnung ausnutzen, um Probleme zu lösen, die Inspektionsgebiete mit rechteckigen Geometrien aufweisen. In Simulationsstudien wird die Leistungsfähigkeit der verschiedenen hybriden Genetischen Algorithmen untersucht. Dazu wurde die Inspektion von Tanklagern einer Erdölraffinerie mit einer Gruppe homogener Inspektionsroboter als Anwendungsfall gewählt. Die Simulationen zeigen, dass Kodierungsstrategien, die auf der geometrischen Zerlegung basieren, bei einer kleinen Anzahl an Generationen eine bessere Lösung finden können als die anderen untersuchten Strategien. Diese Arbeit beschäftigt sich mit Einzel- und Zweiroboteraufgaben, die entweder von einem einzelnen mobilen Roboter erledigt werden können oder die Zusammenarbeit von zwei Robotern erfordern. Eine Erweiterung des entwickelten Algorithmus zur Behandlung von Aufgaben, die mehr als zwei Roboter erfordern, ist möglich, würde aber die Komplexität der Optimierungsaufgabe deutlich vergrößern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In vielen Industrieanlagen werden verschiedenste Fluide in der Produktion eingesetzt, die bei einer Freisetzung, z. B. durch ihre toxische oder karzinogene Eigenschaft oder wegen der Brand- und Explosionsgefahr, sowohl die Umwelt als auch Investitionsgüter gefährden können. In Deutschland sind zur Risikominimierung die maximal zulässigen Emissionsmengen von Stoffen und Stoffgruppen in verschiedenen Umweltvorschriften festgelegt, wodurch zu deren Einhaltung eine ausreichende Überwachung aller relevanten Anlagenkomponenten seitens der Betreiber notwendig ist. Eine kontinuierliche und flächendeckende Überwachung der Anlagen ist aber weder personell, noch finanziell mit klassischer In-situ-Sensorik realisierbar. In der vorliegenden Arbeit wird die Problemstellung der autonomen mobilen Gasferndetektion und Gasleckortung in industrieller Umgebung mittels optischer Gasfernmesstechnik adressiert, die zum Teil im Rahmen des Verbundprojekts RoboGasInspector entstand. Neben der Beschreibung des verwendeten mobilen Robotersystems und der Sensorik, werden die eingesetzten Techniken zur Messdatenverarbeitung vorgestellt. Für die Leckortung, als Sonderfall im Inspektionsablauf, wurde die TriMax-Methode entwickelt, die zusätzlich durch einen Bayes-Klassifikator basierten Gasleckschätzer (Bayes classification based gas leak estimator (BeaGLE)) erweitert wurde, um die Erstellung von Leckhypothesen zu verbessern. Der BeaGLE basiert auf Techniken, die in der mobilen Robotik bei der Erstellung von digitalen Karten mittels Entfernungsmessungen genutzt werden. Die vorgestellten Strategien wurden in industrieller Umgebung mittels simulierter Lecks entwickelt und getestet. Zur Bestimmung der Strategieparameter wurden diverse Laborund Freifelduntersuchungen mit dem verwendeten Gasfernmessgerät durchgeführt. Die abschließenden Testergebnisse mit dem Gesamtsystem haben gezeigt, dass die automatische Gasdetektion und Gaslecksuche mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik innerhalb praktikabler Zeiten und mit hinreichender Präzision realisierbar sind. Die Gasdetektion und Gasleckortung mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik ist noch ein junger Forschungszweig der industriellen Servicerobotik. In der abschließenden Diskussion der vorliegenden Arbeit wird deutlich, dass noch weitergehende, interessante Forschungs- und Entwicklungspotentiale erkennbar sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Energie-, Stoff- und Informationsströme, z. B. innerhalb von Produktionsanlagen, begründet das Interesse an Methoden, welche eine Analyse der Systemeigenschaften von großen und verkoppelten dynamischen Systemen bereits in einem frühen Entwicklungsstadium ermöglichen. Dabei ist das Gesamtsystemverhalten von Interesse, welches sowohl auf der Dynamik der Teilsysteme als auch der Verkopplungen beruht. In der vorliegenden Arbeit wird eine neue Methode zur qualitativen Analyse von Systemen auf Inverse-Response-Verhalten vorgestellt. Der Ansatz nutzt Komplexe Netzwerke zur Modellbeschreibung, wobei diese um Kantengewichte ergänzt werden, welche das dynamische Verhalten des modellierten Systems beschreiben. Der vorgestellte Detektionsalgorithmus vergleicht die Pfade des Graphen zwischen den betrachteten Ein- und Ausgängen. Hierfür werden die aggregierten Kantengewichte der Pfade bestimmt und zur Ermittlung der qualitativen Aussage zum Inverse-Response-Verhalten herangezogen. Der Analyseansatz bietet somit eine einfach anwendbare Alternative zur Auswertung der positiven Nullstellen des Systems, welche auf die notwendige sowie hinreichende Bedingung für das Inverse-Response-Verhalten eines linearen Systems zurückgreift: eine ungerade Anzahl positiver Nullstellen. Das entwickelte Verfahren wurde erfolgreich an einer flexibel konfigurierbaren Prozessinsel der Modellfabrik μPlant des Fachgebiets Mess- und Regelungstechnik der Universität Kassel getestet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.