136 resultados para dynamische Benetzung


Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde eine Top Down (TD) und zwei Bottom Up (BU) MALDI/ESI Massenspektrometrie/HPLC-Methoden entwickelt mit dem Ziel Augenoberfächenkomponenten, d.h. Tränenfilm und Konjunktivalzellen zu analysieren. Dabei wurde ein detaillierter Einblick in die Entwicklungsschritte gegeben und die Ansätze auf Eignung und methodische Grenzen untersucht. Während der TD Ansatz vorwiegend Eignung zur Analyse von rohen, weitgehend unbearbeiteten Zellproben fand, konnten mittels des BU Ansatzes bearbeitete konjunktivale Zellen, aber auch Tränenfilm mit hoher Sensitivität und Genauigkeit proteomisch analysiert werden. Dabei konnten mittels LC MALDI BU-Methode mehr als 200 Tränenproteine und mittels der LC ESI Methode mehr als 1000 Tränen- sowie konjunktivale Zellproteine gelistet werden. Dabei unterschieden sich ESI- and MALDI- Methoden deutlich bezüglich der Quantität und Qualität der Ergebnisse, weshalb differente proteomische Anwendungsgebiete der beiden Methoden vorgeschlagen wurden. Weiterhin konnten mittels der entwickelten LC MALDI/ESI BU Plattform, basierend auf den Vorteilen gegenüber dem TD Ansatz, therapeutische Einflüsse auf die Augenoberfläche mit Fokus auf die topische Anwendung von Taurin sowie Taflotan® sine, untersucht werden. Für Taurin konnten entzündungshemmende Effekte, belegt durch dynamische Veränderungen des Tränenfilms, dokumentiert werden. Außerdem konnten vorteilhafte, konzentrationsabhängige Wirkweisen auch in Studien an konjunktival Zellen gezeigt werden. Für die Anwendung von konservierungsmittelfreien Taflotan® sine, konnte mittels LC ESI BU Analyse eine Regenerierung der Augenoberfläche in Patienten mit Primärem Offenwinkel Glaukom (POWG), welche unter einem “Trockenem Auge“ litten nach einem therapeutischen Wechsel von Xalatan® basierend auf dynamischen Tränenproteomveränderungen gezeigt werden. Die Ergebnisse konnten mittels Microarray (MA) Analysen bestätigt werden. Sowohl in den Taurin Studien, als auch in der Taflotan® sine Studie, konnten charakteristische Proteine der Augenoberfläche dokumentiert werden, welche eine objektive Bewertung des Gesundheitszustandes der Augenoberfläche ermöglichen. Eine Kombination von Taflotan® sine und Taurin wurde als mögliche Strategie zur Therapie des Trockenen Auges bei POWG Patienten vorgeschlagen und diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work, a method for the functionalization of biocompatible, poly(lactic acid)-based nanoparticles with charged moieties or fluorescent labels is presented. Therefore, a miniemulsion solvent evaporation procedure is used in which prepolymerized poly(L-lactic acid) is used together with a previously synthesized copolymer of methacrylic acid or a polymerizable dye, respectively, and an oligo(lactic acid) macromonomer. Alternatively, the copolymerization has been carried out in one step with the miniemulsion solvent evaporation. The increased stability in salty solutions of the carboxyl-modified nanoparticles compared to nanoparticles consisting of poly(lactic acid) only has been shown in light scattering experiments. The properties of the nanoparticles that were prepared with the separately synthesized copolymer were almost identical to those in which the copolymerization and particle fabrication were carried out simultaneously. During the characterization of the fluorescently labeled nanoparticles, the focus was on the stable bonding between the fluorescent dye and the rest of the polymer chain to ensure that none of it is released from the particles, even after longer storage time or during lengthy experiments. In a fluorescence correlation spectroscopy experiment, it could be shown that even after two weeks, no dye has been released into the solvent. Besides biomedical research for which the above described, functionalized nanoparticles were optimized, nanoparticles also play a role in coating technology. One possibility to fabricate coatings is the electrophoretic deposition of particles. In this process, the mobility of nanoparticles near electrode interfaces plays a crucial role. In this thesis, the nanoparticle mobility has been investigated with resonance enhanced dynamic light scattering (REDLS). A new setup has been developed in which the evanescent electromagnetic eld of a surface plasmon that propagates along the gold-sample interface has been used as incident beam for the dynamic light scattering experiment. The gold layer that is necessary for the excitation of the plasmon doubles as an electrode. Due to the penetration depth of the surface plasmon into the sample layer that is limited to ca. 200 nm, insights on the voltage- and frequency dependent mobility of the nanoparticles near the electrode could be gained. Additionally, simultaneous measurements at four different scattering angles can be carried out with this setup, therefore the investigation of samples undergoing changes is feasible. The results were discussed in context with the mechanisms of electrophoretic deposition.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation consists of three self-contained papers that are related to two main topics. In particular, the first and third studies focus on labor market modeling, whereas the second essay presents a dynamic international trade setup.rnrnIn Chapter "Expenses on Labor Market Reforms during Transitional Dynamics", we investigate the arising costs of a potential labor market reform from a government point of view. To analyze various effects of unemployment benefits system changes, this chapter develops a dynamic model with heterogeneous employed and unemployed workers.rn rnIn Chapter "Endogenous Markup Distributions", we study how markup distributions adjust when a closed economy opens up. In order to perform this analysis, we first present a closed-economy general-equilibrium industry dynamics model, where firms enter and exit markets, and then extend our analysis to the open-economy case.rn rnIn Chapter "Unemployment in the OECD - Pure Chance or Institutions?", we examine effects of aggregate shocks on the distribution of the unemployment rates in OECD member countries.rn rnIn all three chapters we model systems that behave randomly and operate on stochastic processes. We therefore exploit stochastic calculus that establishes clear methodological links between the chapters.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Seit seiner Entdeckung im Jahre 1978 wurden für hyperpolarisiertes (HP) 129Xe zahlreiche Anwendungen gefunden. Aufgrund seiner hohen Verstärkung von NMR-Signalen wird es dabei typischerweise für Tracer- und Oberflächenstudien verwendet. Im gasförmigen Zustand ist es ein interessantes, klinisches Kontrastmittel, welches für dynamische Lungen MRT genutzt oder auch in Blut oder lipophilen Flüssigkeiten gelöst werden kann. Weiterhin findet HP-Xe auch in der Grundlagenphysik in He-Xe Co-Magnetometern Verwendung, mit welchen z. B. das elektrische Dipolmoment von Xe bestimmt werden soll, oder es dient zur Überprüfung auf Lorentz-Invarianzen. Alle diese Anwendungen profitieren von einem hohen Polarisationsgrad (PXe), um hohe Signalstärken und lange Lagerzeiten zu erreichen. rnIn dieser Arbeit wurden zwei mobile Xe-Polarisatoren konstruiert: einer für Experimente in der Grundlagenphysik mit einer Produktionsrate von 400 mbar·l/h mit PXe ≈ 5%. Der zweite Xe-Polarisator wurde für medizinische Anwendungen entwickelt und soll 1 bar l/h mit PXe > 20% erzeugen. Der letztere wurde noch nicht getestet. Die Arbeitsbedingungen des Xe-Polarisators für Grundlagenphysik (Strömung des Gasgemischs, Temperatur, Druck und Konzentration von Xe) wurden variiert, um einen höchstmöglichen Polarisationsgrad zu erzielen. Die maximale Polarisation von 5,6 % wurde bei Verwendung eine Gasmischung von 1% Xe bei einem Durchfluss von 200 ml/min, einer Temperatur von 150°C und einem Gesamtdruck von 4 bar erreicht. rnWeiterhin muss HP-Xe auch effizient gelagert werden, um Polarisationsverluste zu minimieren. Das ist besonders für solche Anwendungen notwendig, welche an einem entfernten Standort durchgeführt werden sollen oder auch wenn lange Spinkohärenzeiten gefordert sind, z.B. bei He-Xe Co-Magnetometern. rnHierbei bestand bisher die größte Schwierigkeit darin, die Reproduzierbarkeit der gemessenen Lagerzeiten sicherzustellen. In dieser Arbeit konnte die Spin-Gitter-Relaxationszeit (T1) von HP-129Xe in unbeschichteten, Rb-freien, sphärischen Zellen aus Aluminiumsilikatglas (GE-180) signifikant verbessert werden. Die T1–Zeit wurde in einem selbstgebauten Niederfeld-NMR-System (2 mT) sowohl für reines HP-Xe als auch für HP-Xe in Mischungen mit N2, SF6 und CO2 bestimmt. Bei diesen Experimenten wurde die maximale Relaxationszeit für reines Xe (85% 129 Xe) bei (4,6 ± 0,1) h festgestellt. Dabei lagen die typischen Wand-Relaxationszeiten bei ca. 18 h für Glaszellen mit einem Durchmesser von 10 cm. Des Weiteren wurde herausgefunden, dass CO2 eine unerwartet hohe Effizienz bei der Verkürzung der Lebensdauer der Xe-Xe Moleküle zeigte und somit zu einer deutlichen Verlängerung der gesamten T1-Zeit genutzt werden kann. rnIm Verlauf vieler Experimente wurde durch wiederholte Messungen mit der gleichen Zelle, ein "Alterungsprozess“ bei der Wandrelaxation identifiziert und untersucht. Dieser Effekt könnte leicht rückgängig gemacht werden, indem die anfängliche Reinigungsprozedur wiederholt wurde. Auf diese Weise kann eine konstante Wandrelaxation sichergestellt werden, durch die sehr reproduzierbare T1-Messungen möglich werden. rnSchließlich wurde die maximale Relaxationszeit für HP-Xe mit natürlicher Häufigkeit in Mischungen mit SF6 bestimmt. Überraschenderweise war dieser Wert um ca. 75% niedriger als der Wert für Xenon, das zu 85% mit 129Xe angereichert war. Dieser Effekt wurde durch drei unabhängige Experimente bestätigt, da er nicht von der bestehenden Theorie der Xe-Relaxation ableitbar ist. rnDie Polarisation von HP-Xe, PXe, wird normalerweise durch den Vergleich der NMR-Signale des HP-Xe mit einer thermischen polarisierten Probe (z. B. 1H2O oder Xe) bestimmt. Dabei beinhaltet der Vergleich unterschiedlicher Messungen an verschiedenen Proben (unterschiedlicher Druck, Signalintensität und Messverfahren) viele experimentelle Unsicherheiten, welche sich oft nicht leicht bestimmen lassen. Eine einfache, genaue und kostengünstige Methode zur Bestimmung von PXe durch eine direkte Messung der makroskopischen Magnetisierung in einem statischen Magnetfeld vermeidet alle diese Unsicherheiten. Dieses Verfahren kann Polarisationen von > 2 % mit einer Genauigkeit von maximal 10% fast ohne Polarisationsverlust bestimmen. Zusätzlich kann diese Methode ohne weitere Änderungen auch für Bestimmungen des Polarisationsgrades anderer HP-Gase verwendet werden.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Forschungsarbeit wird die Konkurrenz von Kristallisation und Verglasung in metastabilen kolloidalen Hart-Kugel(HK)-Modellsystemen mit dynamischer und zeitaufgelöster statischer Lichtstreuung untersucht. Durch gleichzeitige Messungen mit beiden Methoden an derselben Probe gelang es, mit hoher Genauigkeit und aussagekräftiger Statistik nachzuweisen, dass in beiden Systemklassen eine starke Korrelation der strukturellen und dynamischen Eigenschaften vorliegt und diese Korrelation zu quantifizieren. Ein zentraler Teil der Arbeit bestand in dem Aufbau einer geeigneten Lichtstreuanlage mit der erstmalig Messungen der Dynamik und der Struktur simultan an derselben nicht-ergodischen Probe durchgeführt werden konnten. Für die dynamische Lichtstreuung wurde ein Flächendetektor (CCD-Kamera) verwendet. In Kombination mit einer speziellen Detektionsoptik ermöglicht dies, die gleichzeitige Detektion von Streulicht aus unterschiedlichen Probenbereichen (Subensembles). Damit kann gleichzeitig die Dynamik in unterschiedlichen Subensembles mit einer Auflösung von 15,8x15,8µm2 untersucht werden. Die Lichtstreuanlage wurde ausführlich charakterisiert und ihre korrekte Funktionsweise mithilfe von Vergleichsmessungen an etablierten Lichtstreuanlagen bestätigt. Die zeitliche Entwicklung der Dynamik und der Struktur von metastabilen Proben wurde unterhalb, am und oberhalb des Glasübergangs quantifiziert. Dabei zeigte das untersuchte kolloidale HK-Modellsystem alle typischen Eigenschaften eines HK-Systems. Die kristallisierenden Proben zeigten das etablierte zweistufige Kristallisationsszenario mit entsprechender Kristallisationskinetik und die Glasproben zeigten das erwartete Alterungsverhalten. Bei dem zweistufigen Kristallisationsszenario kommt es zuerst zur Nukleation einer metastabilen Zwischenphase von sogenannten Precursorn. In einer zweiten Stufe bilden sich Kristallite innerhalb dieser Precursor. Durch Vergleich zwischen kristallisierenden und verglasenden Proben konnte auch während der Verglasung die Bildung von Precursorn beobachtet werden. Die Korrelation zwischen der Anzahl an Precursorn und der Partikeldynamik legt die Vermutung nahe, dass das immer noch unverstandene Phänomen der Alterung von Gläsern mit der Bildung von Precursorn zusammenhängt. Verhinderte Kristallisation führt zu einer starken Verlangsamung der Partikeldynamik. Die Partikeldynamik einer Probe am Glasübergang zeigt, dass die Probe vor Einsetzen der Kristallisation eine glasartige Dynamik aufwies. Dies legt die Vermutung nahe, dass einkomponentige kolloidale HK-Gläser den Gleichgewichtszustand (Kristall) auf langen Zeitskalen erreichen können. Durch die Untersuchung der Partikeldynamik von metastabilen Proben in einzelnen Subensembles konnte eine heterogene Verteilung der Partikeldynamik nachgewiesen werden. Es existieren Bereiche, in denen die Partikeldynamik schneller oder langsamer ist als in anderen Bereichen. Gleichzeitig zeigen die Messungen der strukturellen Eigenschaften, dass metastabile Proben auch heterogen bezüglich ihrer Struktur sind. Mithilfe dieser Messungen konnte die zeitliche Entwicklung des Anteils an langsamen Partikeln und des Anteils an Partikeln innerhalb von Objekten höherer Ordnung (Precursor/Kristallite) bestimmt werden. Es zeigte sich eine direkte Korrelation zwischen dem Anteil an langsamen Partikeln und dem Anteil an Partikeln in Objekten höherer Ordnung. Die Untersuchung der Dynamik und der Struktur in einzelnen Subensembles lieferte einen weiteren Hinweis darauf, dass Subensembles, in denen eine stärker ausgeprägte strukturelle Ordnung vorliegt, auch bevorzugt eine langsamere Partikeldynamik aufweisen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Biorelevante Medien sind entwickelt worden, um die Bedingungen im Magen-Darm-Trakt vor und nach der Mahlzeit zu imitieren. Mit FaSSIF und FeSSIF wurden Medien eingeführt, die nicht nur die pH- und Puffer-Kapazität des Dünndarms widerspiegeln, sondern auch Lipid und physiologische Tensid-Arten enthalten. Diese Medien (FaSSIF-V2 und FaSSlFmod6.5) wurden für Bioverfügbarkeitstudien in der Medikamentenentwicklung im Laufe der Jahre kontinuierlich weiterentwickelt. Dennoch sind die auf dem Markt verfügbaren Medien immer noch nicht in der Lage, die realen physiologischen Bedingungen zu simulieren. In der jetzigen Zusammensetzung sind nicht alle Kompetenten enthalten, welche natürlicher Weise im Duodenum vorkommen. Darüber hinaus wird nur eine 1:5 Verdünnung von FeSSIF zu FaSSIF angenommen, die individuelle Wasserzufuhr bei Medikamentengabe wird hierdurch jedoch nur eingeschränkt simuliert, obwohl diese von Patient zu Patient schwanken kann. rnZiel dieser Dissertation war die Verbesserung der Vorhersage der Auflösung und Absorption lipophiler Arzneistoffe durch Simulation der Bedingungen im zweiten Teil des Zwölffingerdarms mit neuen biorelevanten Medien, sowie unter Einwirkung zusätzlicher Detergention als Wirkstoffträger. rnUm den Effekt der Verdünnungsrate und Zeit im Dünndarm zu untersuchen, wurde die Entwicklung der Nanopartikel in der Magen-Darm-Flüssigkeit FaSSIFmod6.5 zu verschiedenen Zeitpunkten und Wassergehalten untersucht. Dafür wurden kinetische Studien an verschieden konzentrierten Modellmedien nach Verdünnungssprung untersucht. Das Modell entspricht der Vermischung der Gallenflüssigkeit mit dem Darminhalt bei variablem Volumen. Die Ergebnisse zeigen, dass Art und Größe der Nanopartikel stark von Verdünnung und Einirkungszeit abhängen. rnrnDie menschliche Darmflüssigkeit enthält Cholesterin, welches in allen früheren Modellmedien fehlt. Daher wurden biokompatible und physiologische Modellflüssigkeiten, FaSSIF-C, entwickelt. Der Cholesteringehalt von FaSSIF - 7C entspricht der Gallenflüssigkeit einer gesunden Frau, FaSSIF - 10C der einer gesunden männlichen Person und FaSSIF - 13C der in einigen Krankheitszuständen. Die intestinale Teilchen-Struktur-Untersuchung mit dynamische Lichtstreuung (DLS) und Neutronen-Kleinwinkelstreuung (SANS) ergab, dass die Korngröße von Vesikeln mit zunehmender Cholesterin-Konzentration abnahm. Zu hohe Cholesterin-Konzentration bewirkte zusätzlich sehr große Partikel, welche vermutlich aus Cholesterin-reichen “Disks“ bestehen. Die Löslichkeiten einiger BCS Klasse II Wirkstoffe (Fenofibrat, Griseofulvin, Carbamazepin, Danazol) in diesen neuen Medien zeigten, dass die Löslichkeit in unterschiedlicher Weise mit der Cholesteringehalt zusammen hing und dieser Effekt selektiv für die Droge war. rnDarüber hinaus wurde die Wirkung von einigen Tensiden auf die kolloidale Struktur und Löslichkeit von Fenofibrat in FaSSIFmod6.5 und FaSSIF -7C untersucht. Struktur und Löslichkeit waren Tensid- und Konzentrations-abhängig. Im Falle von FaSSIFmod6.5 zeigten die Ergebnisse eine dreifache Verzweigung der Lösungswege. Im Bereich mittlerer Tensidkonzentration wurde eine Löslichkeitslücke der Droge zwischen der Zerstörung der Galle-Liposomen und der Bildung von Tensid-reichen Mizellen beobachtet. In FaSSIF - 7C, zerstörten Tenside in höherer Konzentration die Liposomenstruktur trotz der allgemeinen Stabilisierung der Membranen durch Cholesterin. rnDie in dieser Arbeit vorgestellten Ergebnisse ergeben, dass die Anwesenheit von Cholesterin als eine fehlende Komponente der menschlichen Darmflüssigkeit in biorelevanten Medien wichtig ist und dazu beitragen kann, das in vivo Verhalten schwerlöslicher Arzneistoffe im Körper besser vorhersagen zu können. Der Verdünnungsgrad hat einen Einfluss auf die Nanopartikel-Struktur und Tenside beeinflussen die Löslichkeit von Medikamenten in biorelevanten Medien: Dieser Effekt ist sowohl von der Konzentration das Tensids abhängig, als auch dessen Typ.rnrn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Erde beherbergt eine faszinierende und dynamische Vielfalt von Genen, Individuen, Populationen, Arten, Lebensgemeinschaften und Ökosystemen, die im Lauf der Jahrmilliarden entstanden ist. Während diese Vielfalt schon immer ethische und ästhetische Wertschätzung erfuhr, werden ihr immenser ökologischer und ökonomischer Wert erst jetzt erkannt. Faszinierend und wertvoll ist also die biologische Vielfalt – doch auch stark unter Druck. Änderungen der Landnutzung, Klimawandel und biologische Invasionen setzen ihr zu. Wie wird es weitergehen? Die damit verbundenen Forschungsfragen werden in diesem Buch durch interessante Beispiele illustriert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Dieser Artikel beschreibt die Vision einer vollständig service-orientierten Architektur zur Steuerung von Materialflusssystemen. Dies setzt eine intelligente Umgebung voraus, innerhalb derer die adäquaten (Web) Services zum Anlauf gebracht werden können. Verteilte Server übernehmen das Management und die Organisation des Systems innerhalb dieser Umgebung. In letzter Konsequenz ermöglicht dies die vollständige Selbstorganisation von Materialflusssystemen, deren Fördertechnik folgerichtig eine zellulare Struktur und als Vision künftiger Fördertechnik eine organische Anpassung an dynamische Anforderungsprofile ermöglicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Materialflusssysteme für kundenindividuelle beziehungsweise dynamische Produktionen werden heutzutage noch überwiegend mit manuellen Fördermitteln realisiert. Doch neue Lösungskonzepte im Bereich der Materialfluss- und Gerätesteuerung wie die funktionsorientierte Modularisierung und intelligente Multiagentensysteme bieten die Möglichkeit, wandelbare und automatisierte Materialflusssysteme in dynamischen Produktionsstrukturen einzusetzen. Diese wandelbaren Materialflusssysteme müssen dabei die Fähigkeit besitzen, auf ungeplante und nicht vorgedachte Ereignisse selbstständig reagieren zu können.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nicht nur die vielfältigen funktionsbezogenen Anforderungen von Produkten und Bauteilen, sondern vor allem die heutigen Marktbedürfnisse stellen große Herausforderungen für aktuelle Fertigungstechnologien dar. Hierbei bildet die kontinuierlich steigende Variantenvielfalt bei gleichzeitiger Senkung der Stückzahlen je Variante die differenzierten Kundenwünsche ab. Diese Entwicklungen begünstigen die Perspektiven des Laserstrahlschmelzens im Allgemeinen sowie seiner speziellen Anwendungsgebiete Rapid Prototyping, Rapid Tooling und Rapid Manufac-turing. In den Branchen der Medizintechnik und der Gummi- und Kunststoffverarbeitung ist bereits seit einiger Zeit eine dynamische Entwicklung erkennbar. Besonders in der Medizintechnik wird der immer breitere Einsatz des Laserstrahlschmelzens durch die hohe Innovationsfähigkeit des Verfahrens und ein verbesserstes Qualitäts-management vorangetrieben. Aufgrund der zunehmenden Forderungen nach individualisierten und individuellen Produkten werden bereits heute patientenangepasste Implantate mit dem Laserstrahlschmelzverfahren gefertigt. Erwarten die Marktteilnehmer eine weiterhin steigende Nachfrage nach solchen Produkten? Wie muss das Verfah-ren verbessert werden, um seine Prozessstabilität zu erhöhen? Wo liegen die zukünftigen Herausforderungen in der Strahlschmelztechnologie? Um diese und weitere Fragen zu klären hat das Fraunhofer Institut für Produkti-onsanlagen und Konstruktionstechnik (IPK) eine Markt- und Trendanalyse für das Laserstrahlschmelzen durchge-führt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Ausschöpfung der vollen Leistungsfähigkeit von Stückgut-Sortiersystemen bedingt eine stetige Zuförderung der Stückgüter über die Einschleusungen zum Sorter. Für Sortiersysteme mit nur einer Einschleusung trifft dies in besonderer Weise zu, da in diesem Fall die maximale Durchsatzleistung des Sorters direkt durch die maximale Durchsatzleistung der Einschleusung begrenzt wird. Im Rahmen dieses Artikels werden unterschiedliche Gestaltungsmöglichkeiten für die Einschleusung am Drehsorter vorgestellt, mit denen unterschiedliche Leistungsniveaus erreicht werden können. Im Vordergrund steht dabei eine Fördertechnik zur Synchronisation der Stückgüter mit dem Sorter, mit der eine dynamische Einschleusung von bis zu 6000 Stückgütern pro Stunde realisiert werden kann. Eine aufwändige Regelung mehrerer Einschleusbänder entfällt dabei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Continuous conveyors with a dynamic merge were developed with adaptable control equipment to differentiate these merges from competing Stop-and-Go merges. With a dynamic merge, the partial flows are manipulated by influencing speeds so that transport units need not stop for the merge. This leads to a more uniform flow of materials, which is qualitatively observable and verifiable in long-term measurements. And although this type of merge is visually mesmerizing, does it lead to advantages from the view of material flow technology? Our study with real data indicates that a dynamic merge shows a 24% increase in performance, but only for symmetric or nearly symmetric flows. This performance advantage decreases as the flows become less symmetric, approaching the throughput of traditional Stop-and-Go merges. And with a cost premium for a continuous merge of approximately 10% due to the additional technical components (belt conveyor, adjustable drive engines, software, etc.), this restricts their economical use.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

At the Chair of Logistics Engineering, TU Dresden, a particular focus is research and development of magnetic traction sheaves. Therein the main fundamentals of these special sheaves are determined for applications in different fields such as elevators, several kinds of winches, hoists and cranes. In the current research project “energy balance of magnetic traction sheaves”, the dynamic behaviour of systems with magnetic traction sheaves was investigated. The research focused on theoretical and practical examinations of energy balance. Moreover, a new approach for dimensioning magnetic traction sheave systems is presented. It is a project of the Research Foundation Intralogistics / Material Handling and Logistics (IFL), which is funded through the AiF under the program of Industrial Collective Research for SMEs (IGF) by the Federal Ministry of Economics and Technology (BMWi).