39 resultados para Bereitstellung
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Climate change remains a major challenge for today’s and future societies due to its immense impacts on human lives and the natural environment. This thesis investigates the extent to which individuals are willing and prepared to voluntarily contribute to climate protection and to adjust to new climatic conditions in order to cope with the consequences of climate change and reduce the severity of potential negative impacts. The thesis thereby combines research in the fields of the private provision of environmental public goods and adaptation to climate change, which is still widely unconnected in the existing literature. The six contributions of this thesis mainly focus on microeconometric analyses using data from international surveys in China, Germany, and the USA. The main findings are: (i) A substantial share of individuals is willing to voluntarily contribute to climate protection and to adapt to climatic change. The engagement in both strategies is positively interrelated at the individual level and the analyses reveal hardly any evidence that adaptation activities crowd out individuals’ incentives to engage in climate protection. (ii) The main determinants of individuals’ adaptation activities seem to be the subjective risk perception as well as socio-economic and socio-demographic characteristics like age, gender, education, and income, while their climate protection efforts are found to be broadly motivated by financial advantages from these activities and additional immaterial benefits. (iii) The empirical findings also suggest a significantly positive relationship between certain climate protection activities. Substitutions are found to occur merely if one measure is perceived to be more effective in providing climate protection or if individuals have high environmental preferences. (iv) This thesis further reveals a common understanding of a (normatively) fair burden-sharing in international climate policy across citizens in China, Germany, and the USA. The highest preferences are found for the accountability principle.
Resumo:
The increasing precision of current and future experiments in high-energy physics requires a likewise increase in the accuracy of the calculation of theoretical predictions, in order to find evidence for possible deviations of the generally accepted Standard Model of elementary particles and interactions. Calculating the experimentally measurable cross sections of scattering and decay processes to a higher accuracy directly translates into including higher order radiative corrections in the calculation. The large number of particles and interactions in the full Standard Model results in an exponentially growing number of Feynman diagrams contributing to any given process in higher orders. Additionally, the appearance of multiple independent mass scales makes even the calculation of single diagrams non-trivial. For over two decades now, the only way to cope with these issues has been to rely on the assistance of computers. The aim of the xloops project is to provide the necessary tools to automate the calculation procedures as far as possible, including the generation of the contributing diagrams and the evaluation of the resulting Feynman integrals. The latter is based on the techniques developed in Mainz for solving one- and two-loop diagrams in a general and systematic way using parallel/orthogonal space methods. These techniques involve a considerable amount of symbolic computations. During the development of xloops it was found that conventional computer algebra systems were not a suitable implementation environment. For this reason, a new system called GiNaC has been created, which allows the development of large-scale symbolic applications in an object-oriented fashion within the C++ programming language. This system, which is now also in use for other projects besides xloops, is the main focus of this thesis. The implementation of GiNaC as a C++ library sets it apart from other algebraic systems. Our results prove that a highly efficient symbolic manipulator can be designed in an object-oriented way, and that having a very fine granularity of objects is also feasible. The xloops-related parts of this work consist of a new implementation, based on GiNaC, of functions for calculating one-loop Feynman integrals that already existed in the original xloops program, as well as the addition of supplementary modules belonging to the interface between the library of integral functions and the diagram generator.
Resumo:
Die zentrale Funktion des Hauptlichtsammlerkomplexes des Photosystems II, LHCII, besteht in der Absorption von Sonnenlicht und der Bereitstellung von Energie für die photosynthetische Ladungstrennung im Reaktionszentrum des Photosystems. Auch in der Regulation der Photosynthese spielt der LHCII eine wichtige Rolle, da die Energieverteilung zwischen Photosystem I und Photosystem II im Rahmen des sog. „State Transition“-Prozesses über die Verteilung der Lichtsammlerkomplexe zwischen den beiden Photosystemen gesteuert wird. Im Blickfeld des ersten Teils dieser Arbeit stand die konformative Dynamik der N-terminalen Domäne des LHCII, die wahrscheinlich in die Regulation der Lichtsammlung involviert ist. Gemeinsam mit Mitarbeitern des 3. Physikalischen Instituts der Universität Stuttgart wurde an der Etablierung einer Methode zur einzelmolekülspektroskopischen Untersuchung der Dynamik des N-Terminus gearbeitet. Als Messgröße diente der Energietransfer zwischen einem Fluoreszenzfarbstoff, der an die N-terminale Domäne gekoppelt war, und den Chlorophyllen des Komplexes. Die Funktion des LHCII als effiziente Lichtantenne bildete die Grundlage für den zweiten Teil dieser Arbeit. Hier wurde untersucht, in wie weit LHCII als Lichtsammler in eine elektrochemische Solarzelle integriert werden kann. In der potentiellen Solarzelle sollte die Anregungsenergie des LHCII auf Akzeptorfarbstoffe übertragen werden, die in der Folge Elektronen in das Leitungsband einer aus Titandioxid oder Zinndioxid bestehenden porösen Halbleiterelektrode injizierten, auf der Komplexe und Farbstoffe immobilisiert waren.
Resumo:
Radiometals play an important role in nuclear medicine as involved in diagnostic or therapeutic agents. In the present work the radiochemical aspects of production and processing of very promising radiometals of the third group of the periodic table, namely radiogallium and radiolanthanides are investigated. The 68Ge/68Ga generator (68Ge, T½ = 270.8 d) provides a cyclotron-independent source of positron-emitting 68Ga (T½ = 68 min), which can be used for coordinative labelling. However, for labelling of biomolecules via bifunctional chelators, particularly if legal aspects of production of radiopharmaceuticals are considered, 68Ga(III) as eluted initially needs to be pre-concentrated and purified. The first experimental chapter describes a system for simple and efficient handling of the 68Ge/68Ga generator eluates with a cation-exchange micro-chromatography column as the main component. Chemical purification and volume concentration of 68Ga(III) are carried out in hydrochloric acid – acetone media. Finally, generator produced 68Ga(III) is obtained with an excellent radiochemical and chemical purity in a minimised volume in a form applicable directly for the synthesis of 68Ga-labelled radiopharmaceuticals. For labelling with 68Ga(III), somatostatin analogue DOTA-octreotides (DOTATOC, DOTANOC) are used. 68Ga-DOTATOC and 68Ga-DOTANOC were successfully used to diagnose human somatostatin receptor-expressing tumours with PET/CT. Additionally, the proposed method was adapted for purification and medical utilisation of the cyclotron produced SPECT gallium radionuclide 67Ga(III). Second experimental chapter discusses a diagnostic radiolanthanide 140Nd, produced by irradiation of macro amounts of natural CeO2 and Pr2O3 in natCe(3He,xn)140Nd and 141Pr(p,2n)140Nd nuclear reactions, respectively. With this produced and processed 140Nd an efficient 140Nd/140Pr radionuclide generator system has been developed and evaluated. The principle of radiochemical separation of the mother and daughter radiolanthanides is based on physical-chemical transitions (hot-atom effects) of 140Pr following the electron capture process of 140Nd. The mother radionuclide 140Nd(III) is quantitatively absorbed on a solid phase matrix in the chemical form of 140Nd-DOTA-conjugated complexes, while daughter nuclide 140Pr is generated in an ionic species. With a very high elution yield and satisfactory chemical and radiolytical stability the system could able to provide the short-lived positron-emitting radiolanthanide 140Pr for PET investigations. In the third experimental chapter, analogously to physical-chemical transitions after the radioactive decay of 140Nd in 140Pr-DOTA, the rapture of the chemical bond between a radiolanthanide and the DOTA ligand, after the thermal neutron capture reaction (Szilard-Chalmers effect) was evaluated for production of the relevant radiolanthanides with high specific activity at TRIGA II Mainz nuclear reactor. The physical-chemical model was developed and first quantitative data are presented. As an example, 166Ho could be produced with a specific activity higher than its limiting value for TRIGA II Mainz, namely about 2 GBq/mg versus 0.9 GBq/mg. While free 166Ho(III) is produced in situ, it is not forming a 166Ho-DOTA complex and therefore can be separated from the inactive 165Ho-DOTA material. The analysis of the experimental data shows that radionuclides with half-life T½ < 64 h can be produced on TRIGA II Mainz nuclear reactor, with specific activity higher than any available at irradiation of simple targets e.g. oxides.
Resumo:
Die Aufgabenstellung, welche dieser Dissertation zugrunde liegt, lässt sich kurz als die Untersuchung von komponentenbasierten Konzepten zum Einsatz in der Softwareentwicklung durch Endanwender beschreiben. In den letzten 20 bis 30 Jahren hat sich das technische Umfeld, in dem ein Großteil der Arbeitnehmer seine täglichen Aufgaben verrichtet, grundlegend verändert. Der Computer, früher in Form eines Großrechners ausschließlich die Domäne von Spezialisten, ist nun ein selbstverständlicher Bestandteil der täglichen Arbeit. Der Umgang mit Anwendungsprogrammen, die dem Nutzer erlauben in einem gewissen Rahmen neue, eigene Funktionalität zu definieren, ist in vielen Bereichen so selbstverständlich, dass viele dieser Tätigkeiten nicht bewusst als Programmieren wahrgenommen werden. Da diese Nutzer nicht notwendigerweise in der Entwicklung von Software ausgebildet sind, benötigen sie entsprechende Unterstützung bei diesen Tätigkeiten. Dies macht deutlich, welche praktische Relevanz die Untersuchungen in diesem Bereich haben. Zur Erstellung eines Programmiersystems für Endanwender wird zunächst ein flexibler Anwendungsrahmen entwickelt, welcher sich als Basis zur Erstellung solcher Systeme eignet. In Softwareprojekten sind sich ändernde Anforderungen und daraus resultierende Notwendigkeiten ein wichtiger Aspekt. Dies wird im Entwurf des Frameworks durch Konzepte zur Bereitstellung von wieder verwendbarer Funktionalität durch das Framework und Möglichkeiten zur Anpassung und Erweiterung der vorhandenen Funktionalität berücksichtigt. Hier ist zum einen der Einsatz einer serviceorientierten Architektur innerhalb der Anwendung und zum anderen eine komponentenorientierte Variante des Kommando-Musters zu nennen. Zum anderen wird ein Konzept zur Kapselung von Endnutzerprogrammiermodellen in Komponenten erarbeitet. Dieser Ansatz ermöglicht es, unterschiedliche Modelle als Grundlage der entworfenen Entwicklungsumgebung zu verwenden. Im weiteren Verlauf der Arbeit wird ein Programmiermodell entworfen und unter Verwendung des zuvor genannten Frameworks implementiert. Damit dieses zur Nutzung durch Endanwender geeignet ist, ist eine Anhebung der zur Beschreibung eines Softwaresystems verwendeten Abstraktionsebene notwendig. Dies wird durch die Verwendung von Komponenten und einem nachrichtenbasierten Kompositionsmechanismus erreicht. Die vorgenommene Realisierung ist dabei noch nicht auf konkrete Anwendungsfamilien bezogen, diese Anpassungen erfolgen in einem weiteren Schritt für zwei unterschiedliche Anwendungsbereiche.
Resumo:
Im Rahmen der vorliegenden Arbeit wurden Eignung und Nutzen des „Objective therapy Compliance Measurement“ (OtCMTM)-Systems, einer innovativen Weiterentwicklung im Bereich der elektronischen Compliance-Messung, untersucht. Unter experimentellen Bedingungen wurden Funktionalität und Verlässlichkeit der elektronischen OtCMTM-Blisterpackungen überprüft, um deren Eignung für den klinischen Einsatz zu zeigen. Funktionalität (≥90% lesbare Blister), Richtigkeit (≤2% Fehler) und Robustheit waren bei den OtCMTM-Blistern der Version 3 gegeben, nachdem die Fehler der Versionen 1 und 2 in Zusammenarbeit mit dem Hersteller TCG identifiziert und eliminiert worden waren. Der als Alternative zu den elektronischen Blistern für die Verpackung von klinischen Prüfmustern entwickelte OtCMTM e-Dispenser wurde bezüglich Funktionalität und Anwenderfreundlichkeit in einer Pilotstudie untersucht. Dabei wurde ein Optimierungsbedarf festgestellt. In einer klinischen Studie wurde das OtCMTM-System mit dem als „Goldstandard“ geltenden MEMS® verglichen. Vergleichskriterien waren Datenqualität, Akzeptanz und Anwenderfreundlichkeit, Zeitaufwand bei der Bereitstellung der Medikation und Datenauswertung, sowie Validität. Insgesamt 40 Patienten, die mit Rekawan® retard 600mg behandelt wurden, nahmen an der offenen, randomisierten, prospektiven Studie teil. Das OtCMTM-System zeigte sich bezüglich Validität, Akzeptanz und Anwenderfreundlichkeit mit MEMS® vergleichbar. Eine erwartete Zeitersparnis wurde mit dem OtCMTM-System gegenüber MEMS® nicht erreicht. Vorteile des OtCMTM-Systems sind eine höhere Datenqualität und die Möglichkeit zum Einsatz in der Telemedizin.
Untersuchungen zur Plasmapheresetherapie bei Patienten mit thrombotisch thrombozytopenischer Purpura
Resumo:
Die thrombotische thrombozytopenische Purpura (TTP) ist charakterisiert durch eine Triade aus Thrombozytopenie, hämolytischer Anämie und Mikrothromben. Ursächlich für diese Mikroangiopathie ist ein Mangel der Von Willebrand Faktor (VWF)-spaltenden Protease, ADAMTS13, der durch Autoantikörper oder eine genetische Mutation bedingt sein kann. In der Folge treten hochmolekulare, prothrombotische VWF Multimere im Blut auf, die eine Plättchenadhäsion und -aggregation initiieren, die zu mikrovaskulären Thromben in den Arteriolen und Kapillaren zahlreicher Organe insbesondere im zentralen Nervensystem führt. rnMomentan ist der Goldstandard der Therapie dieser ansonsten tödlich verlaufenden Erkrankung, die Plasmapherese (PEX). Hierfür stehen mit Fresh Frozen Plasma (FFP) und solvent/detergent (s/d) Plasma zwei Präparate zur Verfügung. Die Effizienz der Therapie bei der TTP konnte in den letzten Jahrzehnten im klinischen Alltag belegt werden, dennoch geht die intensive und invasive Therapie mit vielen Risiken und Nebenwirkungen für die Patienten einher, die in dieser Arbeit herausgearbeitet werden sollten. rnIn einer deutschlandweiten Patientenstudie wurde retrospektiv, mittels Fragebögen, ein Nebenwirkungsprofil der Plasmapherese erstellt, sowie mögliche Prädispositionen für die TTP untersucht. Zudem wurden mögliche Auslöser für das Auftreten einer klinisch manifesten TTP analysiert. Die Auswertung zeigte, dass Parästhesien (64,4 %) und Schüttelfrost (61,2 %) als häufigste Nebenwirkungen der PEX bei den Patienten auftraten. Weitere Symptome waren vermehrte Kopfschmerzen (50,6 %) und Tachykardien (36,8 %). Nebenwirkungen wie schwerer Kollaps (9 %) traten selten auf. Patienten mit Allergien in der Anamnese reagierten nicht empfindlicher auf die PEX, als andere. Ein Unterschied in der Häufigkeit der Nebenwirkungen hinsichtlich der verschiedenen Plasmapräparate konnte nicht gezeigt werden, relativiert wird dies durch den sehr geringen Einsatz von Octaplas® bei der untersuchten Patientenkohorte.rnEs konnte eine deutliche Verbindung zwischen dem Auftreten der TTP und anderen Autoimmunerkrankungen gezeigt werden. Von insgesamt 87 Patienten leiden 20,8 % an einer weiteren Autoimmunerkrankung. Insbesondere die Hashimoto Thyreoiditis liegt bei den Befragten als häufige Begleiterkrankung vor. Die genetische Prädisposition hat sich in den vergangen Jahren als ein primärer Risikofaktor für die TTP herausgestellt.rnAls mögliche Trigger eines TTP Schubes konnten Infektionen (38,7 %), Medikamente (u.a. Kontrazeptiva, Chinolone, Clarithromycin) (24,3 %), und Schwangerschaft (5,4 %) ausgemacht werden.rnEin weiterer Untersuchungspunkt der Dissertation war die Beurteilung der ADAMTS13-Aktivität in den Plasmapräparaten. Hierfür wurden drei verschieden Methoden, zwei auf Fluoreszenz Resonanz Energie Transfer beruhende Assays und eine turbidimetrische Messung, verwendet. In allen Methoden konnte eine physiologische ADAMTS13-Aktivität, 646 ng/ml für FFP und 634 ng/ml für Octaplas®, gemessen werden, die sich für beide Präparate nicht signifikant unterschied. Auffällig waren jedoch die höheren Schwankungen der Aktivität bei den verschiedenen Chargen bei FFP gegenüber Octaplas®. rnAufgrund des Herstellungsverfahrens bietet Octaplas® einen sichereren Schutz vor Virusübertragungen und dem Auftreten von TRALI als FFP. Jedoch kann es aufgrund der niedrigen Konzentration an Protein S prothrombotisch wirken. FFP enthält dagegen einen höheren Gehalt an Gerinnungsfaktoren. rnAbschließend ist festzuhalten, dass beide Präparate für die Therapie der TTP geeignet sind. Welches Präparat gewählt wird, sollte individuell für den zu behandelnden Patienten entschieden werden. Bei TTP-Patienten, die in der Vergangenheit bereits sensibel auf FFP reagierten, bietet sich eine Therapie mit Octaplas® an. Die schnelle Bereitstellung einer adäquaten Therapie spielt bei der thrombotisch thrombozytopenischen Purpura die entscheidende Rolle.
Resumo:
Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
The main objective of this study is to reveal the housing patterns in Cairo as one of the most rapidly urbanizing city in the developing world. The study outlines the evolution of the housing problem and its influencing factors in Egypt generally and in Cairo specifically. The study takes into account the political transition from the national state economy to the open door policy, the neo-liberal period and finally to the housing situation after the January 2011 Revolution. The resulting housing patterns in Cairo Governorate were identified as (1) squatter settlements, (2) semi-informal settlements, (3) deteriorated inner pockets, and (4) formal settlements. rnThe study concluded that the housing patterns in Cairo are reflecting a multifaceted problem resulting in: (1) the imbalance between the high demand for affordable housing units for low-income families and the oversupply of upper-income housing, (2) the vast expansion of informal areas both on agricultural and desert lands, (3) the deterioration of the old parts of Cairo without upgrading or appropriate replacement of the housing structure, and (4) the high vacancy rate of newly constructed apartmentsrnThe evolution and development of the current housing problem were attributed to a number of factors. These factors are demographic factors represented in the rapid growth of the population associated with urbanization under the dictates of poverty, and the progressive increase of the prices of both buildable land and building materials. The study underlined that the current pattern of population density in Cairo Governorate is a direct result of the current housing problems. Around the depopulation core of the city, a ring of relatively stable areas in terms of population density has developed. Population densification, at the expense of the depopulation core, is characterizing the peripheries of the city. The population density in relation to the built-up area was examined using Landsat-7 ETM+ image (176/039). The image was acquired on 24 August 2006 and considered as an ideal source for land cover classification in Cairo since it is compatible with the population census 2006.rnConsidering that the socio-economic setting is a driving force of change of housing demand and that it is an outcome of the accumulated housing problems, the socio-economic deprivations of the inhabitants of Cairo Governorate are analyzed. Small administrative units in Cairo are categorized into four classes based on the Socio-Economic Opportunity Index (SEOI). This index is developed by using multiple domains focusing on the economic, educational and health situation of the residential population. The results show four levels of deprivation which are consistent with the existing housing patterns. Informal areas on state owned land are included in the first category, namely, the “severely deprived” level. Ex-formal areas or deteriorated inner pockets are characterized as “deprived” urban quarters. Semi-informal areas on agricultural land concentrate in the third category of “medium deprived” settlements. Formal or planned areas are included mostly in the fourth category of the “less deprived” parts of Cairo Governorate. rnFor a better understanding of the differences and similarities among the various housing patterns, four areas based on the smallest administrative units of shiakhat were selected for a detailed study. These areas are: (1) El-Ma’desa is representing a severely deprived squatter settlement, (2) Ain el-Sira is an example for an ex-formal deprived area, (3) El-Marg el-Qibliya was selected as a typical semi-informal and medium deprived settlement, and (4) El-Nozha is representing a formal and less deprived area.rnThe analysis at shiakhat level reveals how the socio-economic characteristics and the unregulated urban growth are greatly reflected in the morphological characteristics of the housing patterns in terms of street network and types of residential buildings as well as types of housing tenure. It is also reflected in the functional characteristics in terms of land use mix and its degree of compatibility. It is concluded that the provision and accessibility to public services represents a performance measure of the dysfunctional structure dominating squatter and semi-informal settlements on one hand and ample public services and accessibility in formal areas on the other hand.rn
Resumo:
Mit der zunehmenden Komplexität der Logistikketten ist auch der Anspruch an die Informationstransparenz gestiegen. Hier ergibt sich durch den Einsatz intelligenter RFID -Technologie eine weitere Möglichkeit zur Op-timierung und Steuerung der eingesetzten Kapazitäten, denn so ist eine Identifikation und Verfolgung von Waren und Gütern entlang der gesamten Supply Chain möglich. Jedes Produkt ist zu jeder Zeit genau lokalisierbar und kann eine Fülle an aktuellen und historischen Daten liefern. Durch den Einsatz der RFID-Technologie kann das Zusammenspiel von Materialfluss und Informationsfluss zwischen den einzelnen Prozessschritten optimiert werden. Damit ist gewährleistet, dass alle erforderlichen Daten zum richtigen Zeitpunkt am richtigen Ort sind. Die dezentrale Bereitstellung und Veränderung von Daten ermöglicht eine flexible, dezentrale Steuerung logistischer Systeme. Weitere Vorteile der RFID - Komponenten sind beispielsweise, dass sie individuell beschreibbar sind und ihre Identifikation selbst über begrenzte Entfernungen und ohne Sichtkontakt zwischen Tag und Lesegerät möglich ist. Durch den Einsatz von RFID-Transpondern eröffnen sich Potentiale in Richtung Prozesssicherheit, Reduzierung der Logistikkosten oder auch Verfügbarkeit der Produkte. Diese Vorteile hängen jedoch nicht zuletzt von der Zuverlässigkeit der Identifikationsvorgänge ab. Die unbestrittenen Potentiale, die durch Einsatz von RFID-Elementen erschlossen werden können, sind nur dann nutzbar, wenn die nun dezentral an den Waren oder Ladeeinheiten zugeordneten Informationen an den benötigten Stellen zuverlässig abgerufen werden können. Die Kommunikation zwischen Transponder und Lese- /Schreibeinrichtung wird durch unterschiedliche Materialen, wie z.B. Metall, die die Funkverbindung beeinflussen erschwert. Die Zuverlässigkeit dieser Kommunikation wird anhand von Versuchen, mit unterschiedlichen Füllmaterialien und unterschiedlichen Anordnungen der Transponder an den Ladeeinheiten, ermittelt.
Resumo:
Die optimale Gestaltung logistischer Systeme und Prozesse bekommt eine immer größere Bedeutung für die Wirtschaftlichkeit und Wettbewerbsfähigkeit von Unternehmen. Für Einzelkomponenten von Materi-alflusssystemen sind neben exakten analytischen Verfahren auch Näherungslösungen und Ersatzmodelle in Form von Polynomen, neuronalen Netzen oder zeitdiskreten Verfahren vorhanden, mit denen eine gute Nachbildung des Verhaltens dieser Komponenten möglich ist. Ziel des Baukastensystems ist es, für diese Vielzahl von Methoden mit ihren spezifischen Ein- und Aus-gangsgrößen eine übergeordnete, einheitliche Kommunikations- und Datenschnittstelle zu definieren. In einem grafischen Editor kann ein Modell eines Materialflusssystems aus solchen Bausteinen gebildet und parametriert werden. Durch Verbindungen zwischen den Bausteinen werden Informationen ausge-tauscht. Die Berechnungen der Bausteine liefern Aussagen zu Auslastungen, Warteschlangen bzw. Warte-zeiten vor den Bausteinen sowie Flussgrößen zur Beschreibung der Abgangströme. The optimal arrangement of logistical systems and operations gets an increased importance for the economicalness and competitiveness of enterprises. For individual components of material flow systems there are also existing approximate solutions and substitute models besides exact analytical calculations in the form of polynomials, neural nets or time-discrete analysis which allows a good analytical description of the behaviour of these components. It is aim of the module system to define a superordinate and unified communication and data interface for all of these variety of methods with her specific input and output quantities. By using a graphic editor, the material flow system can be modelled of such components with specified functions and parameters. Connections between the components allows exchange of information. The calculations of the components provide statements concerning utilization, queue size or waiting time ahead of the components as well as parameters for the description of the departure process. Materialflusssysteme sind Träger innerbetrieblicher Transportprozesse und elementarer Bestandteil logistischer Systeme. Die optimale Gestaltung logistischer Systeme und Prozesse bekommt eine immer größere Bedeutung für die Wirtschaftlichkeit und Wettbewerbsfähigkeit von Unternehmen. Die effiziente Dimensionierung von Materialflusssystemen ist für Planer, Hersteller und Betreiber solcher Anlagen von grundsätzlicher Bedeutung. Für viele bei der Planung materialflusstechnischer Anlagen auftretende Fragestellungen steht noch immer kein Berechnungsverfahren oder -werkzeug zur Verfügung, welches allen drei folgenden Anforderungen gleicherma-ßen gerecht wird: Die Handhabung soll einfach, unkompliziert und schnell sein. Die Berechnungsergebnisse sollen eine hohe Genauigkeit haben. Die Berechnung soll allgemein gültige Ergebnisse liefern. Dabei handelt es sich um Fragestellungen, die durchaus grundlegender Natur sind. Beispielsweise nach den (statistisch) zu erwartenden minimalen und maximalen Auftragsdurchlaufzeiten, nach dem Einfluss von Belas-tungsschwankungen auf die Anlagenleistung, nach vorzusehenden Puffern (Stauplätze) und Leistungsreserven (Auslastung). Für die oben genannten Aufgaben der Materialflussplanung stehen heute hauptsächlich drei Verfahren zur Verfügung (Abb. 1): Faustformeln (gekennzeichnet mit f) sind einfach aber ungenau. Das Systemverhalten von Materialfluss-komponenten beschreiben sie selten über den gesamten Bereich möglicher Betriebsbedingungen und Konfi-gurationen. Das Verhalten von gesamten Materialflusssystemen ist zu komplex, als dass es mit Faustformeln adäquat beschreibbar wäre. Bedienungstheoretische Ansätze erlauben die Beschreibung von Materialflusskomponenten (kleines b) sehr genau und sehr umfassend, soweit Standardmethoden und -modelle der Bedienungstheorie anwendbar sind. Ist diese Voraussetzung nicht gegeben, kann der Aufwand zur Modellbildung schnell erheblich werden. Die Beschreibung von Materialflusssystemen (großes B) als Bedienungsnetzwerke ist nur unter (zum Teil stark) vereinfachenden Annahmen möglich. Solche Vereinfachungen gehen zu Lasten von Genauigkeit und All-gemeingültigkeit der Aussagen. Die Methoden sind häufig sehr komplex, ihre Anwendung erfordert vertief-te Kenntnisse in der Statistik und Stochastik. Simulationsuntersuchungen liefern für Materialflusskomponenten (kleines s) und für Materialflusssysteme (großes S) gleichermaßen genaue Aussagen. Der für die Untersuchungen erforderliche Aufwand hängt dabei weit weniger von den Eigenschaften und der Größe des Systems ab, als es bei bedienungstheoretischen An-sätzen der Fall ist. Die Aussagen der Simulation sind nie universell. Sie betreffen immer nur ein System in einer bestimmten Konfiguration. Die Anwendung der Simulation erfordert Spezialsoftware und vertiefte Kenntnisse in der Modellierung und Programmierung. Verfahren, die genaue und allgemein gültige Aussagen über das Verhalten komplexer Materialflusssysteme liefern können, sind insbesondere in der Phase der Angebotserstellung bzw. in der Phase der Grobplanung von besonderer Wichtigkeit. Andererseits sind heute verfügbare Verfahren aber zu kompliziert und damit unwirt-schaftlich. Gerade in der Phase der Systemgrobplanung werden häufig Änderungen in der Struktur des Systems notwendig, welche z.B. beim Einsatz der Simulation zu erheblichem Änderungsaufwand am Modell führt. Oftmals können solche Änderungen nicht schnell genug ausgeführt werden. Damit bleiben in der Praxis oft erhebliche Planungsunsicherheiten bestehen. Der Grundgedanke des Baukastensystems besteht in der Modularisierung von Materialflusssystemen in einzelne Bausteine und Berechnungen zum Verhalten dieser Komponenten. Die betrachteten Module sind Materialfluss-komponenten, die eine bestimmte logistische Funktion in einer konstruktiv bzw. steuerungstechnisch bedingten, definierten Weise ausführen. Das Verhalten einer Komponente wird durch Belastungen (Durchsatz) und techni-sche Parameter (Geschwindigkeit, Schaltzeit o.ä.) beeinflusst und kann durch ein adäquates mathematisches Modell quantifiziert werden. Das offene Baukastensystem soll dabei vor allem einen konzeptionellen Rahmen für die Integration derartiger Modellbausteine bilden. Es umfasst neben der Bausteinmodularisierung die Problematik der Kommunikation zwischen den Bausteinen (Schnittstellen) sowie Möglichkeiten zur Visualisierung von Ergebnissen. Das daraus abgeleitete softwaretechnische Konzept berücksichtigt neben der einheitlichen Integration der zum Teil stark unterschiedlichen Berechnungsverfahren für einzelne Materialflusskomponenten auch einheitliche Definitionen zur Beschreibung von benötigten Eingangsparametern einschließlich der Randbedingungen (Defini-tionsbereich) und Plausibilitätskontrollen sowie zur Ergebnisbereitstellung. Äußerst wichtig war die Zielstellung, das System offen und erweiterbar zu gestalten: Prototypisch wurden zwar einzelne vorliegende Bausteine integ-riert, es ist aber jederzeit möglich, weitere Verfahren in Form eines Bausteines zu implementieren und in das Baukastensystem einzubringen. Die Ergebnisse der Berechnungen für ein einzelnes Element (Output) fließen zugleich als Input in das nachfol-gende Element ein: Genau wie im realen Materialflusssystem durch Aneinanderreihung einzelner fördertechni-scher Elemente der Materialfluss realisiert wird, kommt es im Baukasten durch Verknüpfung der Bausteine zur Übertragung der relevanten Informationen, mit denen der Fluss beschrieben werden kann. Durch die Weitergabe der Ergebnisse kann trotz Modularisierung in einzelne Bausteine das Verhalten eines gesamten Materialflusssys-tems bestimmt werden. Daher sind auch hier einheitliche Festlegungen zu Art und Umfang der Übergabeparame-ter zwischen den Bausteinen erforderlich. Unter einem Baustein soll ein Modell einer Materialflusskomponente verstanden werden, welches das Verhalten dieser Komponente beim Vorliegen bestimmter Belastungen beschreibt. Dieses Verhalten ist insbesondere gekennzeichnet durch Warteschlangen und Wartezeiten, die vor der Komponente entstehen, durch Auslastung (Besetztanteil) der Komponente selbst und durch die Verteilung des zeitlichen Abstand (Variabilität) des die Komponente verlassenden Stroms an Transporteinheiten. Maßgeblich bestimmt wird dieses Verhalten durch Intensität und Variabilität des ankommenden Stroms an Transporteinheiten, durch die Arbeitsweise (z.B. stetig / unstetig, stochastisch / deterministisch) und zeitliche Inanspruchnahme der Komponente sowie durch Steuerungsregeln, mit denen die Reihenfolge (Priorisierung / Vorfahrt) und/oder Dauer der Abarbeitung (z.B. Regalbediengerät mit Strategie „Minimierung des Leerfahrtan-teils“) verändert werden. Im Grunde genommen beinhaltet ein Baustein damit ein mathematisches Modell, das einen oder mehrere an-kommende Ströme von Transporteinheiten in einen oder mehrere abgehende Ströme transformiert (Abb. 2). Derartige Modelle gibt es beispielsweise in Form von Bedienmodellen ([Gnedenko1984], [Fischer1990 u.a.]), zeitdiskreten Modellen ([Arnold2005], [Furmans1992]), künstlichen neuronalen Netzen ([Schulze2000], [Markwardt2003]), Polynomen ([Schulze1998]). Die zu Grunde liegenden Verfahren (analytisch, simulativ, numerisch) unterscheiden sich zwar erheblich, genü-gen aber prinzipiell den genannten Anforderungen. Die Fixierung auf ein mathematisches Modell ist aber nicht hinreichend, vielmehr bedarf es für einen Baustein auch definierter Schnittstellen, mit denen der Informationsaustausch erfolgen kann (Abb. 3). Dazu zählen neben der einheitlichen Bereitstellung von Informationen über die ankommenden und abgehenden Materialströme auch die Berücksichtigung einer individuellen Parametrierung der Bausteine sowie die Möglichkeit zur Interaktion mit dem Bediener (Anordnung, Parametrierung und Visualisierung). Das offene Konzept erlaubt das eigenständige Entwickeln und Aufnehmen neuer Bausteine in den Baukasten. Dazu ergibt sich als weitere Anforderung die einfache Konfigurierbarkeit eines Bausteins hinsichtlich Identifika-tion, Aussehen und Leistungsbeschreibung. An einen Baustein innerhalb des Baukastensystems werden weiter-hin die folgenden Anforderungen gestellt: Jeder Baustein ist eine in sich abgeschlossene Einheit und kann nur über die Ein- und Ausgänge mit seiner Umgebung kommunizieren. Damit ist ausgeschlossen, dass ein Baustein den Zustand eines ande-ren Bausteins beeinflussen kann. Das führt zu den beiden Lokalitätsbedingungen: Es gibt keine �����bergeordnete Steuerung, die in Abhängigkeit vom aktuellen Systemzustand dispositive Entscheidungen (z.B. zur Routenplanung) trifft. Blockierungen in Folge von Warteschlangen haben keine Auswirkungen auf die Funktion an-derer Bausteine. Bausteine beinhalten in sich abgeschlossene Verfahren zur Dimensionierung einer Komponente (Klas-se) des Materialflusssystems (z.B. Einschleusung auf einen Sorter, Drehtisch als Verzweigungselement oder als Eckumsetzer). Dabei werden auf Grund von technischen Parametern, Steuerungsstrategien und Belastungsannahmen (Durchsatz, Zeitverteilungen) Ergebnisse ermittelt. Ergebnisse im Sinne dieses Bausteinkonzepts sind Auslastungen, Warteschlangen bzw. Wartezeiten vor dem Baustein sowie Flussgrößen zur Beschreibung des Abgangstroms. Als Beschreibung eignen sich sowohl einzelne Kennwerte (Mittelwert, Varianz, Quantile) als auch statische Verteilungsfunktionen. Die Lokalitätsbedingungen stellen Einschränkungen in der Anwendbarkeit des Baukastensystems dar: Systeme mit übergeordneten Steuerungsebenen wie Routenplanung oder Leerfahrzeugsteuerung, die Entscheidungen auf Grund der vorhandenen Transportaufträge und des aktuellen Systemzustands treffen (Fahrerlose Transportsys-teme, Elektrohängebahn), können mit dem Baukasten nicht bearbeitet werden. Diese auf Unstetigförderern basierenden Systeme unterscheiden sich aber auch in ihren Einsatzmerkmalen grundlegend von den hier betrach-teten Stetigförderersystemen. Das Problem der Blockierungen vorgelagerter Bereiche durch zu große Warteschlangen kann dagegen bereits mit dem Baukasten betrachtet und zumindest visualisiert werden. Dazu ist den Verbindungen zwischen den Bausteinen eine Kapazität zugeordnet, so dass durch Vergleich mit den berechneten Warteschlangenlängen eine generelle Einschätzung zur Blockierungsgefahr möglich wird: Ist die Streckenkapazität kleiner als die mittlere Warteschlange, muss von einer permanenten Blockierung ausgegangen werden. In diesem Fall kann der vorhergehende Baustein seine gerade in Bearbeitung befindli-che Transporteinheit nach dem Ende der „Bedienung“ nicht sofort abgeben und behindert damit auch seine weiteren ankommenden Transporteinheiten. Für die Transporteinheiten bedeutet das eine Verlustzeit, die auch nicht wieder aufgeholt werden kann, für das gesamte Transportsystem ist von einer Leistungsminde-rung (geringerer Durchsatz, größere Transport- / Durchlaufzeit) auszugehen. Da bei der Berechnung der Bausteine von einer Blockierfreiheit ausgegangen wird, sind die Berechnungser-gebnisse in aller Regel falsch. Ist die Streckenkapazität zwar größer als die mittlere Warteschlange, aber kleiner als beispielsweise das 90%-Quantil der Warteschlange, ist mit teilweisen Blockierungen (in dem Fall mit mehr als 10% Wahr-scheinlichkeit) zu rechnen. Dann tritt der o.g. Effekt nur zeitweise auf. Die Ergebnisse der Berechungen sind dann zumindest für einzelne Bausteine ungenau. In beiden Fällen wird das Problem erkannt und dem Anwender signalisiert. Es wird davon ausgegangen, dass die geplante Funktionalität und Leistungsfähigkeit des Materialflusssystems nur dann gewährleistet ist, wenn keine Blockierungen auftreten. Durch Änderung der Parameter des kritischen Bausteins, aber auch durch Änderung der Materialströme muss daher eine Anpassung vorgenommen werden. Erst bei Vorliegen der Blockierfreiheit ist die Voraussetzung der Lokalität der Berechnungen erfüllt. Die Berechnungsverfahren in den Bausteinen selbst können wegen der Modularisierung (Lokalität) sehr unter-schiedlicher Art sein. Dabei ist es prinzipiell möglich, die einzelnen Ergebnisse eines Bausteins mit verschiede-nen Verfahren zu ermitteln, insbesondere dann, wenn auf Grund eines eingeschränkten Definitionsbereichs der Eingangsparameter die Anwendung eines bestimmten Verfahrens nicht zulässig ist. Bausteine, die einen Materialfluss auf Grund äußerer, nicht aus dem Verhalten des Bausteins resultierende Einflüsse generieren (Quelle) oder verändern (Service-Station), sind durch eine Flussgröße parametriert. Die Flussgröße ist eine statistische Verteilungsfunktion zur Beschreibung der Ankunfts- und Abgangsströme (Zwi-schenankunftszeiten). In der Praxis, insbesondere in der Planungsphase, ist aber eine solche Verteilungsfunktion meist nicht bekannt. Zudem erweist sich das Rechnen mit Verteilungsfunktionen als numerisch aufwändig. Untersuchungen in [Markwardt2003] haben gezeigt, dass eine Parametrisierung als Abstraktion über statistische Verteilungsfunktionen mit gleichen Erwartungswerten, Minima und Streuungen ausreichend genaue Ergebnisse liefert. Daher wird die Flussgröße beschrieben durch die Parameter Ankunftsrate (=Durchsatz), Mindestzeitabstand tmind und Variationskoeffizient c (als Maß für die Variabilität des Stroms). Zur Visualisierung der Ergebnisse kann die dreiparametrige Gammaverteilung zu Grunde gelegt werden, die eine gute Anpassung an reale Prozessverläufe bietet und durch die genannten Parameter eindeutig beschrieben ist: Weitere leistungsbestimmende Größen wie technische Parameter, Zeitbedarfe u.ä. werden als Parametertupel (k) der jeweiligen Klasse zugeordnet. So ist z.B. bei einer Einschleusung auf einen Sorter zu garantieren, dass der Strom auf der Hauptstrecke nicht angehalten wird. Das erfordert bei einer Einschleusung von der Nebenstrecke eine Lücke im Gutstrom auf der Hauptstrecke mit der Länge Mindestabstand und Fördergeschwindigkeit sind Parameter der ankommenden Förderstrecken, demnach ist lediglich die Größe ttr als Transferzeit ein leistungsbestimmender Parameter der Einschleusung. Förderstrecken stellen die Verbindungen zwischen den Bausteinen her und realisieren den eigentlichen Material-fluss durch das System. Die technische Realisierung kann dabei prinzipiell durch verschiedenartige Bauformen von Stetig- und Unstetigförderern erfolgen. Systeme, die aber vollständig auf der Basis von Unstetigförderern arbeiten wie fahrerlose Transportsysteme (FTS) oder Elektrohängebahn (EHB), werden im Rahmen des Baukas-tens nicht betrachtet, weil die Lokalitätsbedingungen nicht gelten und beispielsweise eine übergeordnete Sys-temsteuerung (Fahrzeugdisposition, Leerfahrtoptimierung) einen erheblichen Einfluss auf die Leistungsfähigkeit des Gesamtsystems hat. Förderstrecken im hier verwendeten Sinne sind Rollen-, Ketten-, Bandförderer oder ähnliches, deren maximaler Durchsatz im Wesentlichen durch zwei Parameter bestimmt wird: Fördergeschwindigkeit (vF) und Mindestab-stand zwischen den Transporteinheiten (smind). Der Mindestabstand ergibt sich aus der Länge der Transportein-heit in Transportrichtung (sx) und einem Sicherheitsabstand (s0), der für ein sicheres und gefahrloses Transportie-ren erforderlich ist. Die Mindestzeit tmind,S zwischen zwei Fördereinheiten auf einer Förderstrecke bestimmt sich demnach zu Ist das verbindende Förderelement nicht staufähig (nicht akkumulierend, z.B. Gurtbandförderer), so kann sich der Abstand zwischen den Fördergütern während des Förder- oder Transportvorgangs nicht verändern: Muss das Band angehalten werden, weil eine Abgabe an das nachfolgende Förderelement nicht möglich ist, bleiben alle Einheiten stehen. In diesem Fall ist es also nicht möglich, die Lücken im Transportstrom zu schließen, die bereits bei der Aufgabe auf das Förderelement entstehen. Für die Berechnung der Mindestzeit tmind,S bedeutet das, dass dann auch die Mindestzeit tmind,B des vorhergehenden Bausteins berücksichtigt werden muss. Die Mindestzeit des Streckenelements nach (6) bzw. (7) wird als einer der Parameter der Flussgröße zur Be-schreibung des am nachfolgenden Baustein ankommenden Stroms verwendet. Als Parameter der Förderstrecke werden neben der Fördergeschwindigkeit daher auch Angaben zum Transportgut (Abmessungen, Sicherheitsab-stand, Transportrichtung) benötigt. Es bot sich ferner an, eine Typisierung der Förderstrecken hinsichtlich ihrer technischen Realisierung (Rollenförderer, Kettenförderer, Bandförderer usw. mit zugeordneten Parametern) vorzunehmen, um den Aufwand für die Beschreibung der Förderstrecken gering zu halten. Weitere Parameter der Förderstrecken dienen der Aufnahme der Berechnungsergebnisse von vor- bzw. nachge-lagerten Bausteinen und beinhalten: die Länge der Warteschlange (einzelne Kenngrößen wie Mittelwert, 90%-, 95% bzw. 99%-Quantil oder - falls ermittelbar - als statistische Verteilung) die Wartezeit (ebenfalls Kenngrößen oder statistische Verteilung) die (Strecken-)Auslastung Variationskoeffizient für den Güterstrom Für die Darstellung des Materialflusses in einem System werden jeweils einzelne Materialfluss-Relationen betrachtet. Dabei wird angenommen, dass jede Relation an einer Quelle beginnt, an einer Senke endet, dabei mehrere Materialfluss-Komponenten (Bausteine) durchläuft und über den gesamten Verlauf in seiner Größe (Transportmenge) konstant bleibt. Einziger leistungsbestimmender Parameter einer Materialfluss-Relation ist die Transportmenge. Sie wird als zeitabhängige Größe angegeben und entspricht damit dem Durchsatz. Mindestabstand und Variationskoeffizient werden vom erzeugenden Baustein (Quelle) bestimmt, von den weiteren durchlaufenen Bausteinen verändert und über die Förderstrecken jeweils an den nachfolgenden Baustein übertragen. Die verbindenden Förderstrecken werden mit dem jeweiligen Durchsatz „belastet“. Bei Verbindungen, die von mehreren Relationen benutzt werden, summieren sich die Durchsätze, so dass sich unterschiedliche Strecken- und Bausteinbelastungen ergeben. Im Kontext des Baukastensystems werden Metadaten1 verwendet, um die in einem Baustein enthaltenen Infor-mationen über Anwendung, Verfahren und Restriktionen transparent zu machen. Ziel des Baukastensystems ist es je gerade, einfache und leicht handhabbare Berechnungsmodule für einen breiteren Anwenderkreis zur Verfü-gung zu stellen. Dazu sind Beschreibungen erforderlich, mit denen das Leistungsspektrum, mögliche Ergebnisse und Anwendungs- bzw. Einsatzkriterien dokumentiert werden. Aufgabe der Baustein-Bibliothek ist die Sammlung, Verwaltung und Bereitstellung von Informationen über die vorhandenen Bausteine. Damit soll dem Nutzer die Möglichkeit gegeben werden, für seine konkret benötigte Materialflusskomponente einen geeigneten Baustein zur Abbildung zu finden. Mit der Entwicklung weiterer Bausteine für ähnliche Funktionen, aber unterschiedliche Realisierungen (z. B. Regalbediengerät: einfach- oder doppeltiefe Lagerung, mit oder ohne Schnellläuferzone usw.) wächst die Notwendigkeit, die Einsatz- und Leis-tungsmerkmale des Bausteins in geeigneter Weise zu präsentieren. Die Baustein-Bibliothek enthält demnach eine formalisierte Beschreibung der vorhandenen und verfügbaren Bausteine. Die Informationen sind im Wesentlichen unter dem Aspekt einer einheitlichen Identifikation, Infor-mation, Visualisierung und Implementierung der unterschiedlichen Bausteine zusammengestellt worden. Einige der in der Baustein-Bibliothek enthaltenen Metadaten lassen sich durchaus mehreren Rubriken zuordnen. Identifikation und Information Ein Baustein wird durch eine eindeutige Ident-Nummer fixiert. Daneben geben Informationen zum Autor (Ent-wicklung und/oder Implementierung des Verfahrens) und eine Funktionsbeschreibung eine verbale Auskunft über den Baustein. Zusätzlich ist jeder Baustein einem bestimmten Typ zugeordnet entsprechend der Baustein-Klassifizierung (Bearbeiten, Verzweigen, Zusammenführen usw.), über den die Baustein-Auswahl eingegrenzt werden kann. Visualisierung Die Parameter für die Visualisierung beschreiben die Darstellung des Bausteins innerhalb des Baukastensystems (Form, Farbe, Lage der Ein- und Ausgänge des Bausteins, Icons). Implementierung Der Klassenname verweist auf die Implementierung des Bausteins. Zusätzlich benötigte Programm-Ressourcen (externe Bibliotheken wie *.dll , *.tcl o.ä.) können angegeben werden. Weiterhin sind Bezeichnungen und Erläuterungen der erforderlichen technischen Parameter für den Eingabedialog enthalten. Für die Förderstrecken wird ebenfalls eine formalisierte Beschreibung verwendet. Sie verweist jedoch nicht wie die Baustein-Bibliothek auf Software-Ressourcen, sondern enthält nur eine Reihe technischer Parameter, die für das Übertragungsverhalten der Förderstrecke eine Rolle spielen (Fördergeschwindigkeit, Arbeitsweise akkumu-lierend, Ausrichtung des Transportguts). Die Einträge lassen sich als Musterdatensätze (Template) für die Bau-stein-Verbindungen auffassen, um bestimmte, häufig vorkommende fördertechnische Lösungen diesen Verbin-dungen in einfacher Weise zuordnen zu können. Die Angaben sind aber im konkreten Anwendungsfall änderbar. Angaben zum Transportgut beschränken sich auf die Abmessungen der Transporteinheiten (Länge, Breite) und den erforderlichen Sicherheitsabstand (s0). Als Grundform wird von einer Standard-Euro-Palette (1200x800 mm) ausgegangen, es lassen sich aber auch Güter mit anderen Maßen hinzufügen. Die Angaben zum Transportgut werden in Verbindung mit den Parametern der Förderstrecken (Ausrichtung des Gutes längs oder quer) ausgewertet, so dass sich die jeweiligen Mindestabstände (Gleichung 6 bzw. 7) sowie der maximale Durchsatz Qmax als Grundlage für die Berechnung der Streckenauslastung bestimmen lassen. Das Gesamtkonzept des Baukastensystems ist in Abbildung 4 dargestellt. Es besteht im Wesentlichen aus drei Bereichen: Bausteinerstellung Bausteinverwaltung (Bibliotheken) Baukasten (Benutzeroberfläche) Dabei ist der Bereich der Bausteinerstellung nicht unmittelbarer Bestandteil der realisierten Lösung. Sie ist vielmehr die Quelle für die Bausteine, die über die jeweiligen Metadaten in einer Baustein-Bibliothek verwaltet und bereitgestellt werden. Die Verwaltung von Bausteinen und Förderstrecken ist die Umsetzung der Baustein-Bibliothek und (im erwei-terten Sinne) der Definitionen für die Förderstrecken. Der Modellbaukasten selbst stellt die Grafische Nutzeroberfläche dar (Abb. 11) und enthält den interaktiven, grafischen Modelleditor, die Auswahlelemente (Werkzeugkoffer bzw. -filter) für Bausteine und Förderstrecken, tabellarische Übersichten für alle Bausteine, Förderstrecken und Materialflussrelationen sowie Eingabedialoge für Bausteine, Förderstrecken und Materialflussrelationen. Die Entwicklung eines Modells mit dem Baukastensystem erfolgt prinzipiell in drei Schritten: Schritt eins umfasst die Anordnung und Definition der Bausteine. Der Modellbaukasten bietet die Möglich-keit, einen bestimmten Baustein direkt (z.B. Ausschleusung) oder unter Nutzung eines Bausteinfilters (z.B. alle Verzweigungselemente) auszuwählen und im grafischen Editor mittels Mausklick zu platzieren . An-schließend erfolgt im Dialog die notwendige Parametrierung des Bausteins. Dies beinhaltet sowohl die An-gaben zur Visualisierung (Drehung, Spiegelung) als auch die für die Dimensionierung erforderlichen techni-schen Parameter. Die für jeden Baustein benötigten Leistungsanforderungen (Durchsatz, lokale Transport-matrix) werden allerdings nicht direkt angegeben, sondern aus den Beziehungen zu den vor- und nachgela-gerten Bausteinen automatisch ermittelt (Übertragungsfunktion der Förderstrecken). Danach erfolgt in einem zweiten Schritt die Definition von Verbindung zwischen den Bausteinen (Förder-strecken): Das Erzeugen der Bausteinverbindungen ist ebenfalls ganz einfach zu realisieren. Nach Auswahl der zu Grunde liegenden Fördertechnik (z.B. Rollenförderer) wird durch Ziehen des Mauszeigers von einem nicht belegten Ausgang zu einem nicht belegten Eingang eines Bausteins die entsprechende Förderstrecke erzeugt. In einem abschließenden Dialog können die gewählten Voreinstellungen zum Transportgut, zum Förderertyp usw. bestätigt oder gegebenenfalls korrigiert werden. Außerdem kann die Kapazität der Förder-strecke definiert werden. Dabei geht es weniger um die Länge des Förderers als viel mehr um die Anzahl der vorgesehenen Puffer- oder Stauplätze im Zusammenhang mit den zu berechnenden Warteschlangenlän-gen. Abschließend wird im dritten Schritt der Materialfluss definiert: Ein Materialstrom ist jeweils eine Relation, die an einer Quelle beginnt, an einer Senke endet und dabei mehrere Bausteine durchläuft. Da die Förder-strecken zu diesem Zeitpunkt bereits definiert sein müssen, kann automatisch ein möglicher Weg zwischen Quelle und Senke gefunden werden. Ähnlich wie bei Routenplanungssystemen kann dabei durch zusätzliche Angabe von Zwischenpunkten (via) der automatisch vorgeschlagene Transportweg verändert und angepasst werden (Abb. 5). Nach Bestätigung des Transportweges und damit der unterwegs zu passierenden Bausteine erfolgt in einem Dialog die Parametrierung (Transportmenge pro Stunde) für diese Relation. Die Elemente des Transportweges (die benutzten Förderstrecken) werden mit dem entsprechenden Durchsatz „belastet“. Nach Abschluss der Modellierung kann die Berechnung ausgeführt werden. Im Ergebnis werden Kennzahlen bestimmt und im Baukasten in verschiedener Form visualisiert, um eine Bewertung der Ergebnisse vornehmen zu können. Eine Übersicht Fehlermeldungen listet die Problemelemente auf. Dabei wird die Schwere eines Problems farb-lich hervorgehoben: fataler Fehler (rot): entsteht z.B. bei Überlastung eines Bausteins – die geforderte Leistung für einen Bau-stein (und damit die des Gesamtsystems) kann nicht erbracht werden. lokaler Fehler (orange): entsteht z.B. bei permanenter Blockierung – die mittlere Warteschlange vor einem Baustein ist größer als dessen vorgesehene Kapazität. Warnung (hellgelb): bei teilweiser Blockierung – das 90%-Quantil der Warteschlange ist größer als die Ka-pazität der Förderstrecke, es ist daher zeitweise mit Blockierungen (und damit Behinderungen des vorherge-henden Bausteins) zu rechnen. Information (weiß): wird immer dann erzeugt, wenn Erwartungswerte für die Wartezeit oder Warteschlange mit einem G/G/1-Bedienmodell berechnet werden. Die Lösungen dieser Näherungsgleichungen sind im All-gemeinen nicht sehr genau, dienen aber als Abschätzung für die sonst fehlenden Kennwerte. Entsprechend der berechneten Auslastung werden die Bausteine im Modelleditor mit einer Farbabstufung von Grün nach Rot markiert, Bausteine und Förderstrecken leuchten rot bei Überlastung. Die dargestellten Ergebnisse im Modelleditor zu Bausteinen und Förderstrecken sind umschaltbar durch den Nutzer (Abb. 6). Je nach den in den Bausteinen hinterlegten Berechnungen sind jedoch nicht immer alle Kenn-größen verfügbar. Die Implementierung des Baukastensystems wurde mit Java (Release 1.5) vorgenommen. Für das Kernsystem wird dabei das in Abbildung 7 dargestellte Klassen-Konzept umgesetzt. Ausgehend von einer allgemeinen Klasse (Object3D) für Visualisierung von und Interaktionen mit grafischen Objekten wurden für Bausteine (AbstractNode) und Förderstrecken (Connection) die jeweiligen Klassen abgelei-tet. Für die Förderstecken ergibt sich dabei eine weitgehend einheitliche Beschreibungsform, die lediglich durch die Parametrierung (Vorlagen in der Förderstrecken-Bibliothek als XML-Datei) auf den konkreten Einsatz im Modell des Materialflusssystems angepasst werden muss. Anders verhält es sich mit den Bausteinen: Durch die mögliche Vielfalt von Bausteinen und den ihnen zu Grunde liegenden Berechnungsverfahren muss es auch eine Vielzahl von Klassen geben. Um jedoch für jeden belie-bigen Baustein den Zugriff (Bereitstellung von Eingangsdaten, Berechnung und Bereitstellung der Ergebnisse) in einer identischen Weise zu gewährleisten, muss es dafür eine nach außen einheitliche Schnittstelle geben. Die Java zu Grunde liegende objektorientierte Programmierung bietet mit dem Konzept der „abstrakten Klasse“ eine Möglichkeit, dies in einfacher Weise zu realisieren. Dazu wird mit AbstractNode quasi eine Vorlage entwi-ckelt, von der alle implementierten Baustein-Klassen abgeleitet sind. AbstractNode selbst enthält alle Methoden, mit denen Baustein-Daten übernommen oder übergeben, die jeweiligen Visualisierungen vorgenommen, die baustein-internen Verbindungen (lokale Transportmatrix) verwaltet und Ein- und Ausgänge mit den zugehörigen Förderstrecken verbunden werden. Die für den Aufruf der eigentlichen Berechnungen in den Bausteinen ver-wendeten Methoden sind deklariert, aber nicht implementiert (sogenannte abstrakte Methoden). Ein Baustein wird von AbstractNode abgeleitet und erbt damit die implementierten Methoden, lediglich die abstrakten Methoden, die die Spezifik des Bausteins ausmachen, sind noch zu implementieren. Um neue Bausteine zu erzeugen, wird Unterstützung in Form eines Bildschirmdialogs angeboten (Abb. 8). Danach sind die entsprechenden Angaben zu den Metadaten, zur Struktur und zur Visualisierung des Bausteins, die Eingangsparameter (Name und Erläuterung) sowie die berechenbaren Ergebnisse (z.B. Auslastung, Quantile der Warteschlangenlänge, aber keine Aussage zu Wartezeiten usw.) anzugeben. Nach Bestätigung der Daten und diversen Syntax- bzw. Semantik-Kontrollen wird der Baustein in der Bibliothek registriert, ein Sourcecode für den neuen Baustein generiert und kompiliert. Der Baustein selbst ist damit formal korrekt und kann sofort verwendet werden, liefert aber noch keine verwertbaren Ergebnisse, weil natürlich die Implementierung des Berechnungsverfahrens selbst noch aussteht. Das muss in einem zweiten Schritt im Rah-men der üblichen Software-Entwicklung nachgeholt werden. Dazu sind die Berechnungsverfahren zu implemen-tieren und die Bausteinschnittstellen zu bedienen. Der generierte Java-Code enthält in den Kommentaren eine Reihe von Hinweisen für den Programmierer, so dass sich problemlos die Schnittstellen des Bausteins program-mieren lassen (Abb. 9). In einem Beispiel werden ein Hochregallager (3 Regalbediengeräte) und zwei Kommissionierplätze durch ein Transportsystem verbunden. Mit der Einlastung von Kommissionieraufträgen werden im Simulationsmodell die entsprechenden Transportaufträge generiert und abgearbeitet (Abb. 10). Dabei können Systemzustände (z.B. Warteschlangen) protokolliert und statistisch ausgewertet werden. Ein entsprechendes Modell für den Baukasten ist in Abbildung 11 dargestellt. Der Vorteil des Baukastensystems liegt selbst bei diesem recht einfachen Beispiel im Zeitvorteil: Für Erstellung und Test des Simulationsmodells und anschließende Simulationsläufe und Auswertungen wird ein Zeitaufwand von ca. 4-5 Stunden benötigt, das Baukastenmodell braucht für Erstellung und korrekte Parametrierung weniger als 0,5 Stunden, die Rechenzeit selbst ist vernachlässigbar gering. Sollte im Ergebnis der Untersuchungen eine Änderung des Materialflusssystems notwendig werden, so führt das im Simulationsmodell teilweise zu erheblichen Änderungen (Abläufe, Steuerungsstrategien, Auswertungen) mit entsprechendem Zeitaufwand. Im Baukasten können dagegen in einfacher Weise zusätzliche Bausteine eingefügt oder vorhandene ersetzt werden durch Bausteine mit geänderter Funktion oder Steuerung. Strukturelle Änderungen am Materialflusssys-tem sind also mit deutlich geringerem Aufwand realisierbar. In [Markwardt2003] werden für mehrere Strukturen von Materialflusskomponenten Fehlerbetrachtungen über die Genauigkeit der mittels neuronaler Netze untersuchten Systeme gegenüber den Simulationsergebnissen vorge-nommen. Danach ergibt sich beispielsweise für das 90%-Quantil der Warteschlange eine Abweichung, die mit 90% Sicherheit kleiner als 0,3 Warteplätze ist. Bei den Variationskoeffizienten des Abgangsstroms betragen die absoluten Abweichungen mit 90% Sicherheit nicht mehr als 0,02 bis 0,05 (in Abhängigkeit vom betrachteten Baustein). Daraus wird die Schlussfolgerung abgeleitet, dass die durch Verknüpfung neuronaler Netze gewonne-nen Aussagen sehr gut mit statistischen Ergebnissen diskreter Simulation übereinstimmen und eine Planungssi-cherheit ermöglichen, die für einen Grobentwurf von Materialflusssystemen weit über die heute gebräuchlichen statischen Berechnungsverfahren hinausgehen. Im konkreten Beispiel wurde die Zahl der Pufferplätze vor den Kommissionierern (Work1 bzw. Work2) zu-nächst auf 3 begrenzt. Die Berechnung im Baukasten ergab dabei in beiden Fällen Fehlermeldungen mit dem Hinweis auf Blockierungen (Abb. 12, links). Diese bestätigten sich auch im Simulationsmodell (Abb. 12, rechts). Nach Vergr��ßerung der Pufferstrecken auf 7 Plätze ist die Blockierungsgefahr auf ein vertretbares Minimum reduziert, und die mit dem Baukasten berechneten Kenngrößen können durch die Simulation prinzipiell bestätigt werden. it dem offenen Baukastensystem ist eine schnelle, einfache, sichere und damit wirtschaftlichere Dimensionie-rung von Materialflusssystemen möglich. Für den Anwender sind sofort statistisch abgesicherte und ausreichend genaue Ergebnisse ohne aufwändige Berechnungen verfügbar, womit sich die Planungsqualität erhöht. Besonde-re Anforderungen an Hard- und Software sind dabei nicht erforderlich. Für die Dimensionierung der einzelnen Bausteine stehen Informationen aus der Bedienungstheorie, Simulati-onswissen und numerische Verfahren direkt und anwendungsbereit zur Verfügung. Es erlaubt eine deutlich vereinfachte Berechnung von statistischen Kenngrößen wie Quantile (statistische Obergrenzen) der Pufferbelegung, Auslastung von Einzelelementen und mittlere Auftragsdurchlaufzeit bei gleichzeitig erhöhter Genauigkeit. Ferner ist das Baukastensystem offen für eine Erweiterung um neue Bausteine, die neue oder spezielle fördertechnische Elemente abbilden oder zusätzliche Informationen liefern können. Da auch komplexe Materialflusssysteme immer wieder aus einer begrenzten Anzahl unterschiedlicher Kompo-nenten bestehen, können durch die Verknüpfung der Einzelbausteine auch Gesamtsysteme abgebildet werden. Die Verknüpfung der Bausteine über eine einheitliche Schnittstelle erlaubt Aussagen über das Verhalten der Gesamtanlage. Bei Einsatz des Baukastensystems sind in einer solchen Verknüpfung jederzeit Parameterände-rungen möglich, deren Folgen sofort sichtbar werden. Die Zeit bis zum Vorliegen gesicherter, ausreichend genauer Ergebnisse wird dadurch drastisch verkürzt. Damit erwächst Variantenuntersuchungen bereits in frühen Planungsphasen neues Potential und kann zum entscheidenden Wettbewerbsvorteil werden.
Resumo:
Auf Grund eines zufälligen, weil nicht exakt vorhersehbaren Eintreffens von Fertigungsaufträgen und Ausgangsmaterialien (Anlieferung von Zulieferer, Bereitstellung aus einem Lager) an einem ersten Fertigungsbereich und einer nicht konstanten Durchlaufzeit kommt es zu einer unregelmäßigen Bereitstellung der bearbeiteten Aufträge am sich anschließenden zweiten Fertigungsbereich. Um dort jedoch eine hohe Auslastung zu erzielen, wird eine kontinuierliche Bearbeitung und damit getaktete Bereitstellung angestrebt. Die Lösung ist ein Zwischenspeicher oder Puffer, der die beiden Prozesse entkoppelt. Es wird ein Verfahren vorgestellt, mit dem die Verteilung der Pufferbelegung auf analytischem Wege bestimmt und damit die erforderliche Größe des Entkopplungspuffers mit einer vorgegebenen statistischen Sicherheit abgeleitet werden kann.
Resumo:
Die starke Individualisierung der Kundenwünsche hat eine stetig wachsende Variantenvielfalt zur Folge. Unternehmen, insbesondere aus dem Automotive- und High-Tech-Sektor, sind bestrebt, ein dauerhaftes Vorhalten aller Variantenteile im Montageprozess aufgrund hoher Kapitalbindung, zunehmenden Flächenbedarfs sowie steigenden Handlingaufwands zu vermeiden. Durch die konsequent wertschöpfungsorientierte Planung der Montageprozesse ist es möglich, innerhalb eines Montagetakts größere Teileumfänge zu verbauen. Das Angebot an Bereitstellflächen erhöht sich jedoch nicht, so dass Kosteneinsparungen aus Montageoptimierungen zum Teil nicht ausgeschöpft werden können. Diese Einsparungen können erst zusammen mit einem angepassten und standardisierten Materialbereitstellungsprozess voll wirksam werden. Die Materialbereitstellung muss darüber hinaus auch für individuelle Teilespektren eine adäquate Teileversorgung sichern sowie innerhalb ihrer Systemgrenzen einen optimalen Prozessablauf ermöglichen. Für die Auswahl geeigneter Bereitstellungsstrategien fehlt eine auf den Bereitstellungsprozess abgestimmte Bewertungsmethode, die eine nach Lean Management Grundsätzen vergleichende Prozessbetrachtung ermöglicht und zudem bauteilspezifische Kriterien wie Variantenvielfalt, Reichweite oder Größe berücksichtigt. Ziel des Beitrags ist es daher, eine neuartige Bewertungsmethode vorzustellen.