9 resultados para Robotik
Resumo:
Die Digitalisierung und Vernetzung der Gesellschaft hat diese entscheidend verändert. Auch Denk- und Handlungsweisen in der Medizin werden durch die neuen Informationstechnologien in erheblichem Maße beeinflusst. Von welcher Art ist dieser Einfluss? Verändert sich das Arzt-Patienten-Verhältnis? Bekommen wir den "gläsernen Patienten"? Gibt es Auswirkungen auf die Berufsstände im Gesundheitswesen? Verändert diese Technologie die Sozialsysteme möglicherweise sogar grundsätzlich? Werden wir bald von intelligenten technischen Systemen beherrscht? Sollten wir (bedenkenlos) alles machen, was wir (technisch) könn(t)en? Wo sind die Grenzen, wo müssen wir bremsen? Müssen wir über eine neue Ethik nachdenken oder "ist alles schon mal da gewesen"? Diesen und ähnlichen Fragen gehen die Beiträge in dieser Buchpublikation nach. In einem ersten Teil werden zur Einführung und zur Anregung Zukunftsszenarien entwickelt, und zwar für die Gebiete Medizinische Bildgebung, Medizinische Robotik und Telemedizin. Der zweiteTeil reflektiert allgemein über ethische Aspekte der Informationstechnik und der Informationstechnik, zunächst ohne direkten Bezug zur Medizin. Dieser wird im dritten Teil hergestellt. Den Schwerpunkt bildet hier die Telemedizin, weil diese ein geeignetes Modell zur ethischen Diskussion über Technik und Medizin darstellt. Der vierte Teil enthält eine Diskussion zum Thema "Werden die neuen Entwicklungen von Informationstechnik in der Medizin zum Fluch oder zum Segen für die Gesellschaft?". Schließlich sind in einem fünften Teil die Ergebnisse und Erkenntnisse in Thesenform zusammenzufassen. Diese "Dresdner Thesen zu ethischen Aspekten der Telemedizin" sind nach der Veranstaltung in einem mehrmonatigen Prozess entstanden, an dem die Herausgeber und die Autoren beteiligt waren.
Resumo:
In vielen Industrieanlagen werden verschiedenste Fluide in der Produktion eingesetzt, die bei einer Freisetzung, z. B. durch ihre toxische oder karzinogene Eigenschaft oder wegen der Brand- und Explosionsgefahr, sowohl die Umwelt als auch Investitionsgüter gefährden können. In Deutschland sind zur Risikominimierung die maximal zulässigen Emissionsmengen von Stoffen und Stoffgruppen in verschiedenen Umweltvorschriften festgelegt, wodurch zu deren Einhaltung eine ausreichende Überwachung aller relevanten Anlagenkomponenten seitens der Betreiber notwendig ist. Eine kontinuierliche und flächendeckende Überwachung der Anlagen ist aber weder personell, noch finanziell mit klassischer In-situ-Sensorik realisierbar. In der vorliegenden Arbeit wird die Problemstellung der autonomen mobilen Gasferndetektion und Gasleckortung in industrieller Umgebung mittels optischer Gasfernmesstechnik adressiert, die zum Teil im Rahmen des Verbundprojekts RoboGasInspector entstand. Neben der Beschreibung des verwendeten mobilen Robotersystems und der Sensorik, werden die eingesetzten Techniken zur Messdatenverarbeitung vorgestellt. Für die Leckortung, als Sonderfall im Inspektionsablauf, wurde die TriMax-Methode entwickelt, die zusätzlich durch einen Bayes-Klassifikator basierten Gasleckschätzer (Bayes classification based gas leak estimator (BeaGLE)) erweitert wurde, um die Erstellung von Leckhypothesen zu verbessern. Der BeaGLE basiert auf Techniken, die in der mobilen Robotik bei der Erstellung von digitalen Karten mittels Entfernungsmessungen genutzt werden. Die vorgestellten Strategien wurden in industrieller Umgebung mittels simulierter Lecks entwickelt und getestet. Zur Bestimmung der Strategieparameter wurden diverse Laborund Freifelduntersuchungen mit dem verwendeten Gasfernmessgerät durchgeführt. Die abschließenden Testergebnisse mit dem Gesamtsystem haben gezeigt, dass die automatische Gasdetektion und Gaslecksuche mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik innerhalb praktikabler Zeiten und mit hinreichender Präzision realisierbar sind. Die Gasdetektion und Gasleckortung mittels autonomer mobiler Roboter und optischer Gasfernmesstechnik ist noch ein junger Forschungszweig der industriellen Servicerobotik. In der abschließenden Diskussion der vorliegenden Arbeit wird deutlich, dass noch weitergehende, interessante Forschungs- und Entwicklungspotentiale erkennbar sind.
Resumo:
The national railway administrations in Scandinavia, Germany, and Austria mainly resort to manual inspections to control vegetation growth along railway embankments. Manually inspecting railways is slow and time consuming. A more worrying aspect concerns the fact that human observers are often unable to estimate the true cover of vegetation on railway embankments. Further human observers often tend to disagree with each other when more than one observer is engaged for inspection. Lack of proper techniques to identify the true cover of vegetation even result in the excess usage of herbicides; seriously harming the environment and threating the ecology. Hence work in this study has investigated aspects relevant to human variationand agreement to be able to report better inspection routines. This was studied by mainly carrying out two separate yet relevant investigations.First, thirteen observers were separately asked to estimate the vegetation cover in nine imagesacquired (in nadir view) over the railway tracks. All such estimates were compared relatively and an analysis of variance resulted in a significant difference on the observers’ cover estimates (p<0.05). Bearing in difference between the observers, a second follow-up field-study on the railway tracks was initiated and properly investigated. Two railway segments (strata) representingdifferent levels of vegetationwere carefully selected. Five sample plots (each covering an area of one-by-one meter) were randomizedfrom each stratumalong the rails from the aforementioned segments and ten images were acquired in nadir view. Further three observers (with knowledge in the railway maintenance domain) were separately asked to estimate the plant cover by visually examining theplots. Again an analysis of variance resulted in a significant difference on the observers’ cover estimates (p<0.05) confirming the result from the first investigation.The differences in observations are compared against a computer vision algorithm which detects the "true" cover of vegetation in a given image. The true cover is defined as the amount of greenish pixels in each image as detected by the computer vision algorithm. Results achieved through comparison strongly indicate that inconsistency is prevalent among the estimates reported by the observers. Hence, an automated approach reporting the use of computer vision is suggested, thus transferring the manual inspections into objective monitored inspections
Resumo:
Die Arbeit behandelt das Problem der Skalierbarkeit von Reinforcement Lernen auf hochdimensionale und komplexe Aufgabenstellungen. Unter Reinforcement Lernen versteht man dabei eine auf approximativem Dynamischen Programmieren basierende Klasse von Lernverfahren, die speziell Anwendung in der Künstlichen Intelligenz findet und zur autonomen Steuerung simulierter Agenten oder realer Hardwareroboter in dynamischen und unwägbaren Umwelten genutzt werden kann. Dazu wird mittels Regression aus Stichproben eine Funktion bestimmt, die die Lösung einer "Optimalitätsgleichung" (Bellman) ist und aus der sich näherungsweise optimale Entscheidungen ableiten lassen. Eine große Hürde stellt dabei die Dimensionalität des Zustandsraums dar, die häufig hoch und daher traditionellen gitterbasierten Approximationsverfahren wenig zugänglich ist. Das Ziel dieser Arbeit ist es, Reinforcement Lernen durch nichtparametrisierte Funktionsapproximation (genauer, Regularisierungsnetze) auf -- im Prinzip beliebig -- hochdimensionale Probleme anwendbar zu machen. Regularisierungsnetze sind eine Verallgemeinerung von gewöhnlichen Basisfunktionsnetzen, die die gesuchte Lösung durch die Daten parametrisieren, wodurch die explizite Wahl von Knoten/Basisfunktionen entfällt und so bei hochdimensionalen Eingaben der "Fluch der Dimension" umgangen werden kann. Gleichzeitig sind Regularisierungsnetze aber auch lineare Approximatoren, die technisch einfach handhabbar sind und für die die bestehenden Konvergenzaussagen von Reinforcement Lernen Gültigkeit behalten (anders als etwa bei Feed-Forward Neuronalen Netzen). Allen diesen theoretischen Vorteilen gegenüber steht allerdings ein sehr praktisches Problem: der Rechenaufwand bei der Verwendung von Regularisierungsnetzen skaliert von Natur aus wie O(n**3), wobei n die Anzahl der Daten ist. Das ist besonders deswegen problematisch, weil bei Reinforcement Lernen der Lernprozeß online erfolgt -- die Stichproben werden von einem Agenten/Roboter erzeugt, während er mit der Umwelt interagiert. Anpassungen an der Lösung müssen daher sofort und mit wenig Rechenaufwand vorgenommen werden. Der Beitrag dieser Arbeit gliedert sich daher in zwei Teile: Im ersten Teil der Arbeit formulieren wir für Regularisierungsnetze einen effizienten Lernalgorithmus zum Lösen allgemeiner Regressionsaufgaben, der speziell auf die Anforderungen von Online-Lernen zugeschnitten ist. Unser Ansatz basiert auf der Vorgehensweise von Recursive Least-Squares, kann aber mit konstantem Zeitaufwand nicht nur neue Daten sondern auch neue Basisfunktionen in das bestehende Modell einfügen. Ermöglicht wird das durch die "Subset of Regressors" Approximation, wodurch der Kern durch eine stark reduzierte Auswahl von Trainingsdaten approximiert wird, und einer gierigen Auswahlwahlprozedur, die diese Basiselemente direkt aus dem Datenstrom zur Laufzeit selektiert. Im zweiten Teil übertragen wir diesen Algorithmus auf approximative Politik-Evaluation mittels Least-Squares basiertem Temporal-Difference Lernen, und integrieren diesen Baustein in ein Gesamtsystem zum autonomen Lernen von optimalem Verhalten. Insgesamt entwickeln wir ein in hohem Maße dateneffizientes Verfahren, das insbesondere für Lernprobleme aus der Robotik mit kontinuierlichen und hochdimensionalen Zustandsräumen sowie stochastischen Zustandsübergängen geeignet ist. Dabei sind wir nicht auf ein Modell der Umwelt angewiesen, arbeiten weitestgehend unabhängig von der Dimension des Zustandsraums, erzielen Konvergenz bereits mit relativ wenigen Agent-Umwelt Interaktionen, und können dank des effizienten Online-Algorithmus auch im Kontext zeitkritischer Echtzeitanwendungen operieren. Wir demonstrieren die Leistungsfähigkeit unseres Ansatzes anhand von zwei realistischen und komplexen Anwendungsbeispielen: dem Problem RoboCup-Keepaway, sowie der Steuerung eines (simulierten) Oktopus-Tentakels.
Resumo:
Kurzbeschreibung: In der Automatisierung von intralogistischen Kommissioniervorgängen ist ein großes Zukunftspotential erkennbar. Elementarer Bestandteil des Automatisierungsprozesses ist der Einsatz von Industrierobotern, die mit einem geeigneten Endeffektor, dem Greifer, ausgestattet werden müssen. Die Robotik ist in der Lage schneller, präziser und ausdauernder als die menschlichen Kommissionierer zu arbeiten und trägt damit entscheidend zur Effizienzsteigerung bei. Eine wesentliche Herausforderung für diesen Entwicklungsschritt zur Substitution der manuellen Kommissionierung ist die Konstruktion und Bereitstellung eines geeigneten Greifsystems. Am Lehrstuhl für Maschinenelemente und Technische Logistik der Helmut-Schmidt-Universität wurde mit der Erfahrung aus einem vorangegangenen Forschungsprojekt die Methode der Clusteranalyse erstmalig zur Untersuchung von Greifobjekten zur Entwicklung eines bionischen Universalgreifers für die Kommissionierung von Drogerieartikeln verwendet. Diese Abhandlung beschreibt einen Beitrag zur Entwicklung dieses Greifers am Beispiel handelsüblicher Drogerieartikel, die aktuell manuell kommissioniert werden. Diese werden hinsichtlich der für das Greifen relevanten Objektmerkmale geclustert und die daraus resultierenden Erkenntnisse in Form von Konstruktionsmerkmalen abgeleitet. Nach einer Analyse und Festlegung der greifrelevanten Merkmale der Greifobjekte wird eine Objektdatenbasis erstellt. Mit Hilfe geeigneter Methoden wird die gewonnene Datenbasis aufbereitet und reduziert. Im Anschluss werden die Greifobjekte bzw. deren Merkmalsausprägungen einer hierarchischen Clusteranalyse unterzogen. Hierbei werden die Grenzen der gebildeten Cluster mittels der zugehörigen Greifobjekte festgelegt und analysiert. Abschließend werden bestimmte greiferspezifische Merkmale auf die Anwendbarkeit in den Clustern überprüft und bewertet. Diese Betrachtungen ermöglichen es, dass spezielle Anforderungen an den Greifer, die direkt aus den Eigenschaften der Greifobjekte herrühren, zuverlässig erkannt und konstruktiv berücksichtigt werden können.
Resumo:
Podium Robotik in der Pflege Leitung: Susanne Brauer, PhD, Paulus-Akademie Zürich Gäste Prof. Dr. Heidrun Becker, Zürcher Hochschule für Angewandte Wissenschaften, Departement Gesundheit Prof. Dr. Susanne Boshammer, Universität Osnabrück, Philosophie Margrit Lüscher, Geschäftsleiterin, Alterszentrum Bruggwiesen Prof. Dr. Pasqualina Perrig-Chiello, Universität Bern, Psychologie Martin Rüfenacht, Manager Healthcare bei CISCO
Resumo:
Die Automatisierung logistischer Prozesse stellt aufgrund dynamischer Prozesseigenschaften und wirtschaftlicher Anforderungen eine große technische Herausforderung dar. Es besteht der Bedarf nach neuartigen hochflexiblen Automatisierungs- und Roboterlösungen, die in der Lage sind, variable Güter zu handhaben oder verschiedene Prozesse bzw. Funktionalitäten auszuführen. Im Rahmen dieses Beitrages wird die Steigerung der Flexibilität anhand von zwei konkreten Beispielen aus den Bereichen Stückguthandhabung und Materialflusstechnik adressiert.
Resumo:
In the past years, we could observe a significant amount of new robotic systems in science, industry, and everyday life. To reduce the complexity of these systems, the industry constructs robots that are designated for the execution of a specific task such as vacuum cleaning, autonomous driving, observation, or transportation operations. As a result, such robotic systems need to combine their capabilities to accomplish complex tasks that exceed the abilities of individual robots. However, to achieve emergent cooperative behavior, multi-robot systems require a decision process that copes with the communication challenges of the application domain. This work investigates a distributed multi-robot decision process, which addresses unreliable and transient communication. This process composed by five steps, which we embedded into the ALICA multi-agent coordination language guided by the PROViDE negotiation middleware. The first step encompasses the specification of the decision problem, which is an integral part of the ALICA implementation. In our decision process, we describe multi-robot problems by continuous nonlinear constraint satisfaction problems. The second step addresses the calculation of solution proposals for this problem specification. Here, we propose an efficient solution algorithm that integrates incomplete local search and interval propagation techniques into a satisfiability solver, which forms a satisfiability modulo theories (SMT) solver. In the third decision step, the PROViDE middleware replicates the solution proposals among the robots. This replication process is parameterized with a distribution method, which determines the consistency properties of the proposals. In a fourth step, we investigate the conflict resolution. Therefore, an acceptance method ensures that each robot supports one of the replicated proposals. As we integrated the conflict resolution into the replication process, a sound selection of the distribution and acceptance methods leads to an eventual convergence of the robot proposals. In order to avoid the execution of conflicting proposals, the last step comprises a decision method, which selects a proposal for implementation in case the conflict resolution fails. The evaluation of our work shows that the usage of incomplete solution techniques of the constraint satisfaction solver outperforms the runtime of other state-of-the-art approaches for many typical robotic problems. We further show by experimental setups and practical application in the RoboCup environment that our decision process is suitable for making quick decisions in the presence of packet loss and delay. Moreover, PROViDE requires less memory and bandwidth compared to other state-of-the-art middleware approaches.