253 resultados para Kombinatorische Optimierung
Resumo:
Verbindungen stellen die Schwachstelle in einem Fördergurt dar, da dort die auftretenden Zugkräfte ausschließlich vom Zwischengummi übertragen werden. Prüfungen von Fördergurtverbindungen sind zeitaufwendig und kostenintensiv. Die Messung der Spannungen im Zwischengummi der Verbindung ist bei dieser Prüfung nur unter erheblichem Aufwand zu realisieren. Aus diesen Gründen wurde am Institut für Transport- und Automatisierungstechnik in Zusammenarbeit mit der Firma Fenner Dunlop Americas ein FE-Modell zur Auslegung und Optimierung von Stahlseil-Fördergurtverbindungen entwickelt.
Resumo:
Otto-von-Guericke-Universität Magdeburg, Fakultät für Informatik, Dissertation, 2016
Resumo:
Die Produktion von Holzfasern beinhaltet eine Vielzahl physikalisch-technologischer Prozesse, deren Komplexität vom Holzplatz bis zur Zerfaserung deutlich zunimmt. Da die Wirkungsweise und physikalische Zusammenhänge der Zerfaserung im Refiner zum gegenwärtigen Zeitpunkt nur in geringem Maße beschrieben werden können, kann eine Prozesseinstellung zur definierten und reproduzierbaren Faserqualität nicht durchgeführt werden. Vorhandenes Wissen beruht auf Erfahrungen und empirisch gefundenen Zusammenhängen, nicht aber auf wissenschaftlich fundierten Erkenntnissen. Deshalb soll mit Hilfe verschiedenster Messtechniken versucht werden, Informationen zum Prozess des Faserstofftransportes im Refiner zu erhalten, die anschließend zur Validierung eines CFD Modell des Laborrefiners genutzt werden können. Später sollen – so weit vorhanden – energiebezogene Schwachstellen im CFD Modell des Refiners erkannt und reduziert werden, so dass ein neues energieoptimiertes Refinergehäuse entwickelt werden kann.
Resumo:
Diese Bachelorarbeit zeigt durch eine gezielte experimentelle Untersuchung Verbesserungsmöglichkeiten zur Dekontamination Verletzter bei chemischen, biologischen, radiologischen und nuklearen Gefahrenlagen am Beispiel des Abrollbehälters-Verletztendekontamination (AB-V Dekon) der Feuerwehr Braunschweig auf. Zusätzlich zur Analyse der aktuellen Gefährdungslage in Deutschland und einem internationalen Vergleich der Dekontaminationsmethoden werden ausgewählte Konzepte vorgestellt und hinsichtlich ihrer praktischen Anwendbarkeit bewertet. Auf Basis des Rahmenkonzeptes zur Dekontamination Verletzter wurde ein Versuchsaufbau zur Verletztendekontamination entwickelt, in dem 24 Probanden mit einer fluoreszierenden Simulationssubstanz vorbereitet und anschließend durch Einsatzkräfte dekontaminiert wurden. Die Bestimmung der Kontaminationen erfolgte dabei digital mittels eines bildgebenden Verfahrens. Im Fokus des Experimentes liegt insbesondere die Untersuchung und Optimierung der Effektivität des Prozesses sowie eine kritische Auseinandersetzung mit der derzeit empfohlenen Wassertemperatur von 28°C. Hierzu wurde das persönliche Empfinden der Probanden mittels eines Fragebogens hinsichtlich einer Erhöhung auf 35°C analysiert und eine Aufzeichnung der Körpertemperatur vorgenommen. Aus den gewonnenen Ergebnissen werden Handlungsempfehlungen entwickelt, die für die Aus- und Fortbildung der Hilfsorganisationenverwendet werden können und zu einer ganzheitlichen Verbesserung der Verletzendekontamination beitragen sollen.
Resumo:
Aufgrund der Entwicklungen auf dem Sektor der Mobiletelefone ist davon auszugehen, dass die Anzahl kleiner, leichtgewichtiger mobiler Endgeräte, welche als Clients von Datenbanksystemen genutzt werden, weiter ansteigt. Ein wesentliches Problem in diesem Szenario ist die langsame und teure Datenübertragung in Funknetzwerken. Aus Sicht der Nutzer derartiger Technologien ist es somit nicht sinnvoll bzw. wünschenswert, Daten, welche keinen direkten Nutzen für sie bieten, auf das Mobilgerät zu übertragen. Des Weiteren werden einmal empfangene Daten lokal gespeichert und wiederverwendet (Caching). Ändern sich Daten auf dem Server des Informationssystems, müssen die mobilen Clients, welche von einer Änderung betroffen sind, ermittelt und darüber informiert werden. Im Rahmen dieser Dissertation wird gezeigt, dass eine derartige exakte Relevanzprüfung nur mithilfe der Daten in der Datenbank realisiert werden kann. Andere Verfahren, welche das Problem auf semantischer Ebene adressieren, funktionieren nur, wenn die unterstützte Anfragesprache stark eingeschränkt wird und können selbst dann zur falschen Feststellung einer Relevanz führen. Insbesonderen in Informationssystemen mit einer großen Anzahl mobiler Clients kommt es dazu, dass verschiedene Nutzer gleiche oder zumindest ähnliche Anfragen stellen. Diese Eigenschaft wird hier genutzt, um basierend auf einer speziellen Anfragenotation syntaktisch gleiche Teile mehrerer Anfragen gemeinsam auf Relevanz zu testen. Hierzu werden die Anfragen in einem Anfragebaum gespeichert, welcher die IDs der Clients referenziert. Die Relevanzprüfung erfolgt durch Traversieren des Baumes. In der vorliegenden Arbeit werden verschiedene Anfrageindexstrukturen diskutiert und die Menge der notwendigen Relevanztest formal auf der Basis der Relationenmodells hergeleitet. Abschließend werden die theoretisch erarbeiteten Techniken evaluiert und Vorschläge für ihre Optimierung diskutiert.
Resumo:
Magdeburg, Univ., Fak. für Elektrotechnik und Informationstechnik, Diss., 2012
Resumo:
Magdeburg, Univ., Fak. für Mathematik, Habil.-Schr., 2006
Resumo:
In der Firma KERAMAG wird für den Guss von Sanitärkeramik das Hohlgussverfahren angewendet. Bei diesem Gießverfahren treten Fehlerbilder auf, die die Qualität negativ beeinflussen. Ziel der vorliegenden Arbeit ist den Gießprozess zu optimieren, damit sich die komplexen physikalischen Eigenschaften des Schlickers weniger stark auf den technologischen Ablauf des Gießprozesses auswirken. Dazu wird eine intelligente Softwarelösung (automatische Eingießsteuerung)erarbeitet, die die herkömmliche elektromechanische Steuerung ablöst. Als erstes werden der Aufbau und die Funktionsweise der herkömmlichen Gießanlage analysiertund die Einflüsse auf den technologischen Ablauf des Gießprozess untersucht. Aus dengewonnenen Erkenntnissen der Analyse werden Lösungsansätze zur Optimierung desGießprozesses abgeleitet. Mit den Anforderungen die sich aus den Lösungsansätzen ergebenen, wird eine geeigneteHardware für die Steuerungskomponenten des Automatisierungssytems ausgewählt. Auf Grundlage der ermittelten Steuerungsaufgaben wird mit SIMATIC-STEP7 ein Automatisierungsprojekt erstellt. Dabei sind die behandelten Schwerpunkte die „Selbstparametrierung und Optimierung der Eingießkurve“ und die „gleitende Skalierung der Analogausgangsgröße des Proportional-Druckregelventils“. Die vorgeschlagenen Lösungen werden an einer Gießanlage installiert und es wird der Nachweis erbracht, dass die Aufgabenstellung vollständig umgesetzt werden konnte.
Resumo:
Ziel der vorliegenden Arbeit ist die Optimierung vorhandener Datensatzstrukturen und der damit korrelierenden Konzeptentwicklung eines charakteristischen Referenzdatensatzes pro Baureihe hinsichtlich der 4.Generation der Pumpenauslegungssoftware „Spaix 4 Pumps“. Die spezielle Anwendungssoftware zur Analyse und Bearbeitung KSB spezifischer Datensätze wird durch die Firma VSX - Vogel Software GmbH - bereitgestellt. Grundlegende Eigenschaften dieser Anwendungssoftware werden detailliert beschrieben. Insbesondere zwei wesentliche Spaix-Applikationen stehen für die Datensatzoptimierung zur Verfügung:Das System „Spaix 4 Pumps“ beinhaltet sowohl die Datenerfassung- und pflege als auch die anwenderseitige Auslegung in zwei voneinander unabhängigen Programmen. Es wird geprüft, ob die vorangestellte Datenmigration KSB spezifischer Datensätze unter Nutzung aller Funktionalitäten des o. g. Softwarekonzeptes die programmtechnische Basis für die Erstellung eines Soll-Datensatzes bilden. Kernthema der Arbeit ist nach der Erfassung und Analyse der Ist-Struktur eine Optimierung des vorliegenden Datenbestandes hinsichtlich notwendiger Strukturen für die Verwendung in „Spaix 4 Pumps“. Das von KSB vorgegebene Ziel ist die Reorganisation bzw. Umstellung des gesamten Datenbestandes mithilfe eines dafür entwickelten VBA Makro. Die Umsetzung erfolgt auf Grundlage des zu entwickelnden Referenzdatensatzes. Im Ergebnis der Arbeit wird festgestellt, dass das neue Softwareprodukt weitaus komplexer ist als die Vorläuferversion „Spaix® Classic V2“. Deshalb ist die Erstellung eines spezifischen Soll-Datensatzes gegenwärtig nicht abgeschlossen. Ursachen hierfür liegen in der begrenzten Verfügbarkeit systemrelevanter KSB spezifischer, aber auch VSX spezifischer Datensätze und der eingeschränkten Programmfunktionalitaet.
Resumo:
PassPork ist eine neuartige Methode zum Nachweis von pathogenen Keimen in Schweinefleisch. Oftmals sind mikrobielle Nachweismethoden langwierig, kostenintensiv oder zu komplex, aus diesem Grund haben sich europäische Forschungslabore zusammengeschlossen und an einer kostengünstigen, einfachen, schnellen und sensitiven Nachweismethode gearbeitet. Die PassPork-Methode arbeitet nach dem Lateral-Flow-Prinzip und somit besteht der Test aus einem LFD, in welches die Probe eingeführt wird und einem Reader, der die Proben auswerten kann. Alle Schritte von der Probenentnahme am Schlachthof, über die Probenpräparation im Labor und der Probenauswertung sollen validiert werden. Die Validierung erfolgt in drei Testreihen. Hierfür wird die PassPork-Methode mit klassischen Methoden verglichen. Ein weiterer Bestandteil der Arbeit ist die Bestimmung des Detektionslimits, welches mit Hilfe von Glycerinkulturen ermittelt wird. Die Auswertung der Ergebnisse zeigt, dass die Methode derzeit noch zu unausgereift ist und Potential zur Optimierung besitzt. Die Methode kann in diesem Augenblick keine bestehenden, diagnostischen Schnellnachweismethoden ersetzten.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von molekularbiologischen Methoden zur Identifizierung von Mikroorganismen, die in den Proben aus der Versäuerungsstufe von zweistufigen Biogasanlagen enthalten sind. Der Zellaufschluss und die DNA-Isolierung aus der Biomasse werden optimiert. Die Untersuchung der zu verschiedenen Zeitpunkten gelieferten Proben erfolgt mit folgenden Methoden: Bestimmung der Anzahl aerober Keime, Zellaufschluss und DNA-Isolierung, Kolonie-Polymerasekettenreaktion mit universellen Bakterienprimern und dem Anlegen einer Klonbibliothek. Durch die Optimierung der Methoden sollen möglichst viele Arten von Mikroorganismen identifiziert werden.
Resumo:
Die Abteilung Sendertechnik des Norddeutschen Rundfunks betreibt die Sender zur Versorgung der Rundfunknutzer und befasst sich unter anderem mit der Planung und Optimierung von Sendeantennen. Das Ziel dieser Bachelorarbeit war die Entwicklung einer Software, mit der Horizontaldiagramme von Antennen erstellt, angepasst und dokumentiert werden können. Dafür wurde eine vorhandene LabVIEW-Software in ihren Grundzügen übernommen, in eine neue, in Java entwickelte Programmumgebung übertragen und dort erweitert und optimiert. Die Arbeit dokumentiert die Grundlagen der Sendeantennenplanung und die programmiertechnischen Entwicklungsschritte bis hin zur fertiggestellten und funktionsfähigen Software. Im Speziellen geht sie dabei auf die Berechnung von Antennensystemen, die Erstellung von Horizontaldiagrammen sowie die objektorientierte Programmierung und die Erstellung von grafischen Benutzeroberflächen ein. Dabei werden die einzelnen Entwicklungsschritte dokumentiert und erläutert sowie die Validierung der Software beschrieben.