29 resultados para Beschleunigung
Resumo:
In dieser Arbeit wird ein vergröbertes (engl. coarse-grained, CG) Simulationsmodell für Peptide in wässriger Lösung entwickelt. In einem CG Verfahren reduziert man die Anzahl der Freiheitsgrade des Systems, so dass manrngrössere Systeme auf längeren Zeitskalen untersuchen kann. Die Wechselwirkungspotentiale des CG Modells sind so aufgebaut, dass die Peptid Konformationen eines höher aufgelösten (atomistischen) Modells reproduziert werden.rnIn dieser Arbeit wird der Einfluss unterschiedlicher bindender Wechsel-rnwirkungspotentiale in der CG Simulation untersucht, insbesondere daraufhin,rnin wie weit das Konformationsgleichgewicht der atomistischen Simulation reproduziert werden kann. Im CG Verfahren verliert man per Konstruktionrnmikroskopische strukturelle Details des Peptids, zum Beispiel, Korrelationen zwischen Freiheitsgraden entlang der Peptidkette. In der Dissertationrnwird gezeigt, dass diese “verlorenen” Eigenschaften in einem Rückabbildungsverfahren wiederhergestellt werden können, in dem die atomistischen Freiheitsgrade wieder in die CG-Strukturen eingefügt werden. Dies gelingt, solange die Konformationen des CG Modells grundsätzlich gut mit der atomistischen Ebene übereinstimmen. Die erwähnten Korrelationen spielen einerngrosse Rolle bei der Bildung von Sekundärstrukturen und sind somit vonrnentscheidender Bedeutung für ein realistisches Ensemble von Peptidkonformationen. Es wird gezeigt, dass für eine gute Übereinstimmung zwischen CG und atomistischen Kettenkonformationen spezielle bindende Wechselwirkungen wie zum Beispiel 1-5 Bindungs- und 1,3,5-Winkelpotentiale erforderlich sind. Die intramolekularen Parameter (d.h. Bindungen, Winkel, Torsionen), die für kurze Oligopeptide parametrisiert wurden, sind übertragbarrnauf längere Peptidsequenzen. Allerdings können diese gebundenen Wechselwirkungen nur in Kombination mit solchen nichtbindenden Wechselwirkungspotentialen kombiniert werden, die bei der Parametrisierung verwendet werden, sind also zum Beispiel nicht ohne weiteres mit einem andere Wasser-Modell kombinierbar. Da die Energielandschaft in CG-Simulationen glatter ist als im atomistischen Modell, gibt es eine Beschleunigung in der Dynamik. Diese Beschleunigung ist unterschiedlich für verschiedene dynamische Prozesse, zum Beispiel für verschiedene Arten von Bewegungen (Rotation und Translation). Dies ist ein wichtiger Aspekt bei der Untersuchung der Kinetik von Strukturbildungsprozessen, zum Beispiel Peptid Aggregation.rn
Resumo:
In der hier vorliegenden Dissertation wird die Entwicklung und Charakterisierung einer biomimetischen Beschichtung für Titanimplantatoberflächen, insbesondere Dentalimplantate, beschrieben. Ziel war es, die Adhäsion und Aktivität von Osteoblasten auf Titanoberflächen zu steigern und so eine Beschleunigung der Implantatintegration in das Knochengewebe zu erreichen. Hierfür wurde eine spezielle Art der biomimetischen Beschichtung entwickelt, bei der biotinyliertes Fibronektin (bFn) über Streptavidin auf eine biotinylierte TiOX-Modelloberfläche immobilisiert wurde. Die Biotinmodifizierung der TiOX-Oberfläche erfolgte hierbei über einen „Self-Assembly-Prozess“ durch sequenzielle Chemiesorption von N-(6-aminohexyl)aminopropyltrimethoxysilan sowie verschiedenen Sulfo-NHS-Biotin-Derivaten, welche den Aufbau einer Streptavidin-Monolage ermöglichten. Als ein wichtiges Resultat zeigte sich, dass die Streptavidin-Monolage effektiv die unspezifische Adsorption von Proteinen an die TiOX-Oberfläche unterbindet und hierdurch die Adhäsion von Osteoblasten auf dieser unterdrückt. Dies hat den Vorteil, dass auf eine antiadhäsive Basisbeschichtung, welche für eine spezifische Zellreaktion wichtig ist, verzichtet werden kann. Dieses osteoblastere Adhäsionsverhalten änderte sich signifikant nach Anbindung von bFn an die Streptavidin-Monolage, mit dem Ergebnis, einer drastischen Steigerung der Osteoblastenadhäsion. Weiterhin besaßen Osteoblasten auf diesen Oberflächen ein Proteinexpressionsmuster, das auf eine erhöhte Osteoinduktion schließen lässt. Es zeigte sich darüber hinaus eine verstärkte Zelladhäsion sowie eine Steigerung des osteoinduktiven Effekts auf Substraten, bei denen bFn über eine Streptavidin-Monolage immobilisiert wurde, gegenüber mit nativem Fibronektin (Fn) modifizierten TiOX-Oberflächen. Ein wesentlicher Schwerpunkt bestand daher in der Analyse der Zusammensetzung und Struktur der biomimetischen Beschichtung über „Surface Plasmon Spectroscopy“ und „Atomic Force Microscopy“. Diese ergab, dass bFn und natives Fn auf den jeweiligen Oberflächen eine unterschiedliche Konformation einnimmt. Im Gegensatz zu nativem Fn, das bei der Adsorption unter physiologischen Bedingungen auf TiOX-Oberflächen eine kompakte Konformation besitzt, nimmt bFn auf einer Streptavidin-Monolage eine entfaltete Konformation ein. Bei letzterer handelt es sich um dieselbe, welche Fn in vivo innerhalb der extrazellulären Matrix besitzt. Sie unterscheidet sich von der kompakten Fn-Konformation dahingehend, dass entlang der Fn-Achse weitere Proteinbindestellen zugänglich werden und hierdurch die Zellaffinität von Fn gesteigert wird. Die nachgewiesene Konformationsänderung kann somit als Grund für die gesteigerte Osteoblasten-Adhäsion und Aktivität auf Oberflächen mit bFn angenommen werden. Diese Kenntnisse konnten weiterhin für die Optimierung des biomimetischen Schichtsystems genutzt werden. So war es möglich, durch alternierendes Inkubieren der Biotin-aktivierten Oberfläche mit Streptavidin und bFn, ein Multilayersystem gezielt aufzubauen. Der Vorteil dieses Multilayersystems gegenüber einer einfachen Monolage aus bFn besteht in einer erhöhten Stabilität der biomimetischen Beschichtung, wodurch eine Anwendung in der Praxis erleichtert würde.
Resumo:
Auf dem Gebiet der Teilchenbeschleunigung mittels Hochintensitäts-Lasern wurden in der letzten Dekade viele erfolgreiche Entwicklungen hin zu immer höheren Energien und größeren Teilchenzahlen veröffentlicht. In den meisten Fällen wurde der sogenannte TNSA-Prozess (engl. Target-Normal-Sheath-Acceleration (TNSA)) untersucht. Bei diesem Prozess erfolgt die Beschleunigung in dem an der Oberfläche durch Ladungstrennung erzeugten Potential. Ein kaum vermeidbares Problem ist hierbei das resultierende breite Energie-Spektrum der beschleunigten Teilchen. Diese Situation konnte in den letzten Jahren zwar verbessert, aber nicht vollständig gelöst werden. Für Intensitäten größer 10^(20..21) W/cm^2 sagen theoretische Modellrechnungen eine auf dem Lichtdruck basierende Beschleunigung (engl. Radiation-Pressure-Acceleration (RPA)) mit deutlich eingegrenztem, fast monoenergetischem Spektrum voraus. Im Rahmen dieser Arbeit wurde ein Experiment zur Untersuchung dieses Prozesses bei Intensitäten von einigen 10^19 W/cm^2 durchgeführt. Dazu wurden zunächst spezielle Targets entwickelt und als Patent angemeldet, welche den Experimentbedingungen angepasst sind. Durch die Auslegung des experimentellen Aufbaus und der Diagnostiken auf hohe Repetitionsraten, in Verbindung mit einem geeigneten Lasersystem, konnte auf Basis einer Statistik von mehreren Tausend Schüssen ein großer Parameterraum untersucht werden. Untersucht wurden unter anderem die Abhängigkeit von Targetmaterial und Dicke, Intensität, Laserpolarisation und Vorplasmabedingungen. Aus den gewonnenen Daten und Vergleichen mit 2-dimensionalen numerischen Simulationen konnte ein Modell des Beschleunigungsprozesses aufgestellt und durch Vergleich mit den experimentellen Ergebnissen geprüft werden. Dabei wurden klare Indizien für die Existenz eines neuen, nicht feldinduzierten, Beschleunigungsprozesses gefunden. Darüber hinaus wurde zur Polarisationsbeeinflussung ein optisches System entwickelt, das ausschließlich mit reflexiven Elementen arbeitet. Damit konnten viele Nachteile bestehender, auf Verzögerungsplatten beruhender Elemente vermieden, und die Anwendbarkeit bei hohen Laserenergien erreicht werden.
Resumo:
Die antioxidative Aktivität des Enzyms Glutathionperoxidase-1 (GPx-1) schützt vor Atherosklerose und ihren Folgeerkrankungen. In einer Vorstudie konnten wir zeigen, dass der Mangel an GPx-1 die Atheroskleroseentwicklung in Apolipoprotein E defizienten (ApoE-/-) Mäusen beschleunigt und modifiziert. Allerdings sind die Verteilung der GPx-1 in atherosklerotischen Läsionen und die Mechanismen für den erhöhten Makrophagengehalt in der Läsion noch nicht geklärt. Deshalb haben wir (1) die in-situ Expression der GPx-Isoformen in atherosklerotischen Läsionen von GPx-1-/-ApoE-/- und ApoE-/- Mäusen und (2) den Einfluss der GPx-1 Defizienz auf die Schaumzellbildung und Proliferation der Peritonealmakrophagen in ApoE-/- Mäusen untersucht. Die GPx-1-/-ApoE-/- und ApoE-/- Weibchen wurden für 6 und 12 Wochen auf einer atherogenen „Western-type“ Diät gehalten. Die in situ-Hybridisierung zeigte, dass die verschiedenen Isoformen der GPx (GPx-1, GPx-3, GPx-4) vorwiegend in Makrophagen, nicht jedoch in glatten Muskelzellen der atherosklerotischen Läsionen von ApoE-/- Mäusen exprimiert wurden. Für die in vitro Untersuchungen wurden 5 Monate alte, GPx-1 defiziente und Wildtyp-Mäuse, gehalten auf Normaldiät, verwendet. Die Öl-Rot-O Färbung zeigte, dass die GPx-1 Defizienz die OxLDL (oxidiertes LDL) - und E-LDL (enzymatisch modifiziertes LDL) - induzierte Schaumzellbildung förderte. Darüber hinaus war die OxLDL-induzierte Cholesterinakkumulation (zellulärer Cholesterinester/ Cholesterin-Gehalt) in GPx-1 defizienten Makrophagen verstärkt, sodass ein Mangel an GPx-1 die Aufnahme von OxLDL durch Monozyten und damit die Umwandlung in Schaumzellen beschleunigt. Hinsichtlich der Proliferation zeigte sich, dass MCSF (Macrophage Colony-Stimulating Facotr) ein stärkerer Stimulus als OxLDL ist. Ein Mangel an GPx-1 fördert die Proliferation zusätzlich. Daran ist die ERK1/2 (extracellular-signal regulated kinase 1/2) - Kaskade beteiligt, denn es wurde eine schnelle Phosphorylierung der ERK1/2-Kaskade durch MCSF und/oder OxLDL nachgewiesen. Entsprechend reduzieren ERK1/2-Inhibitoren die proliferative Aktivität der Makrophagen. Die Hemmung der p38-MAPK (p38 mitogen-activated protein kinase) führt zur vermehrten Proliferation und bei gleichzeitig verringerter Caspase-3/7 Aktivität der Makrophagen unabhängig von der Expression der GPx-1. Ein Mangel an GPx-1 hat auch keinen Einfluss auf die MCSF-vermittelte Aktivierung der p38-MAPK und JNK (c-Jun N-terminal kinase). Zusammenfassend läßt sich feststellen, dass die GPx-1-Defizienz einen signifikanten Einfluss auf die Schaumzellbildung und Proliferation von Makrophagen hat, was zur Beschleunigung der Atherosklerose und zu vermehrter Zellularität der entstehenden atherosklerotischen Läsionen führt. Die Proliferation wird über den ERK1/2 Signal-transduktionsweg positiv und über den p38-MAPK Weg negativ reguliert, wobei die ERK1/2-Kaskade empfindlich gegenüber oxidativem Stress bei GPx-1-Defizienz ist.
Resumo:
Fine powders commonly have poor flowability and dispersibility due to interparticle adhesion that leads to formation of agglomerates. Knowing about adhesion in particle collectives is indispensable to gain a deeper fundamental understanding of particle behavior in powders. Especially in pharmaceutical industry a control of adhesion forces in powders is mandatory to improve the performance of inhalation products. Typically the size of inhalable particles is in the range of 1 - 5 µm. In this thesis, a new method was developed to measure adhesion forces of particles as an alternative to the established colloidal probe and centrifuge technique, which are both experimentally demanding, time consuming and of limited practical applicability. The new method is based on detachment of individual particles from a surface due to their inertia. The required acceleration in the order of 500 000 g is provided by a Hopkinson bar shock excitation system and measured via laser vibrometry. Particle detachment events are detected on-line by optical video microscopy. Subsequent automated data evaluation allows obtaining a statistical distribution of particle adhesion forces. To validate the new method, adhesion forces for ensembles of single polystyrene and silica microspheres on a polystyrene coated steel surface were measured under ambient conditions. It was possible to investigate more than 150 individual particles in one experiment and obtain adhesion values of particles in a diameter range of 3 - 13 µm. This enables a statistical evaluation while measuring effort and time are considerably lower compared to the established techniques. Measured adhesion forces of smaller particles agreed well with values from colloidal probe measurements and theoretical predictions. However, for the larger particles a stronger increase of adhesion with diameter was observed. This discrepancy might be induced by surface roughness and heterogeneity that influence small and large particles differently. By measuring adhesion forces of corrugated dextran particles with sizes down to 2 µm it was demonstrated that the Hopkinson bar method can be used to characterize more complex sample systems as well. Thus, the new device will be applicable to study a broad variety of different particle-surface combinations on a routine basis, including strongly cohesive powders like pharmaceutical drugs for inhalation.
Resumo:
Die Bildung kieselsäurehaltiger Spicula in marinen Schwämmen ist nur möglich durch die enzymatische Aktivität des Silicatein- in Verbindung mit der stöchiometrischen Selbstassemblierung des Enzyms mit anderen Schwammproteinen. Die vorliegende Arbeit basiert auf einem biomimetischen Ansatz mit dem Ziel, unterschiedliche Oberflächen für biotechnologische und biomedizinische Anwendungen mit Biosilica und Biotitania zu beschichten und zu funktionalisieren. Für biotechnologische Anwendungen ist dabei das Drucken von Cystein-getaggtem Silicatein auf Gold-Oberflächen von Bedeutung, denn es ermöglichte die Bildung definierter Biotitania-Strukturen (Anatas), welche als Photokatalysator den Abbau eines organischen Farbstoffs bewirkten. Des Weiteren zeigte sich die bio-inspirierte Modifikation von Tyrosin-Resten an rekombinantem Silicatein-(via Tyrosinase) als vielversprechendes Werkzeug zur Beschleunigung der Selbstassemblierung des Enzyms zu mesoskaligen Filamenten. Durch eine solche Modifikation konnte Silicatein auch auf der Oberfläche von anorganischen Partikeln immobilisiert werden, welches die Assemblierung von anorganisch-organischen Verbundwerkstoffen in wäßriger Umgebung förderte. Die resultierenden supramolekularen Strukturen könnten dabei in bio-inspirierten und biotechnologischen Anwendungen genutzt werden. Weiterhin wurde in der vorliegenden Arbeit die Sekundärstruktur von rekombinantem Silicatein- (Monomer und Oligomer) durch Raman Spektroskopie analysiert, nachdem das Protein gemäß einer neu etablierten Methode rückgefaltet worden war. Diese Spektraldaten zeigten insbesondere Änderungen der Proteinkonformation durch Solubilisierung und Oligomerisierung des Enzyms. Außerdem wurden die osteoinduzierenden und osteogenen Eigenschaften unterschiedlicher organischer Polymere, die herkömmlich als Knochenersatzmaterial genutzt werden, durch Oberflächenmodifikation mit Silicatein/Biosilica verbessert: Die bei der Kultivierung knochenbildender Zellen auf derart oberflächenbehandelten Materialien beobachtete verstärkte Biomineralisierung, Aktivierung der Alkalischen Phosphatase, und Ausbildung eines typischen zellulären Phänotyps verdeutlichen das Potential von Silicatein/Biosilica für der Herstellung neuartiger Implantat- und Knochenersatzmaterialien.
Resumo:
Patienten, die an Osteosarkom leiden werden derzeit mit intravenös applizierten krebstherapeutischen Mitteln nach Tumorresektion behandelt, was oftmals mit schweren Nebenwirkungen und einem verzögerten Knochenheilungsprozess einhergeht. Darüber hinaus treten vermehrt Rezidive aufgrund von verbleibenden neoplastischen Zellen an der Tumorresektionsstelle auf. Erfolgreiche Knochenregeneration und die Kontrolle von den im Gewebe verbleibenden Krebszellen stellt eine Herausforderung für das Tissue Engineering nach Knochenverlust durch Tumorentfernung dar. In dieser Hinsicht scheint der Einsatz von Hydroxyapatit als Knochenersatzmaterial in Kombination mit Cyclodextrin als Medikamententräger, vielversprechend. Chemotherapeutika können an Biomaterial gebunden und direkt am Tumorbett über einen längeren Zeitraum freigesetzt werden, um verbliebene neoplastische Zellen zu eliminieren. Lokal applizierte Chemotherapie hat diverse Vorteile, einschließlich der direkten zytotoxischen Auswirkung auf lokale Zellen, sowie die Reduzierung schwerer Nebenwirkungen. Diese Studie wurde durchgeführt, um die Funktionsfähigkeit eines solchen Arzneimittelabgabesystems zu bewerten und um Strategien im Bereich des Tissue Engineerings zu entwickeln, die den Knochenheilungsprozess und im speziellen die Vaskularisierung fördern sollen. Die Ergebnisse zeigen, dass nicht nur Krebszellen von der chemotherapeutischen Behandlung betroffen sind. Primäre Endothelzellen wie zum Beispiel HUVEC zeigten eine hohe Sensibilität Cisplatin und Doxorubicin gegenüber. Beide Medikamente lösten in HUVEC ein tumor-unterdrückendes Signal durch die Hochregulation von p53 und p21 aus. Zudem scheint Hypoxie einen krebstherapeutischen Einfluss zu haben, da die Behandlung sensitiver HUVEC mit Hypoxie die Zellen vor Zytotoxizität schützte. Der chemo-protektive Effekt schien deutlich weniger auf Krebszelllinien zu wirken. Diese Resultate könnten eine mögliche chemotherapeutische Strategie darstellen, um den Effekt eines zielgerichteten Medikamenteneinsatzes auf Krebszellen zu verbessern unter gleichzeitiger Schonung gesunder Zellen. Eine erfolgreiche Integration eines Systems, das Arzneimittel abgibt, kombiniert mit einem Biomaterial zur Stabilisierung und Regeneration, könnte gesunden Endothelzellen die Möglichkeit bieten zu proliferieren und Blutgefäße zu bilden, während verbleibende Krebszellen eliminiert werden. Da der Prozess der Knochengeweberemodellierung mit einer starken Beeinträchtigung der Lebensqualität des Patienten einhergeht, ist die Beschleunigung des postoperativen Heilungsprozesses eines der Ziele des Tissue Engineerings. Die Bildung von Blutgefäßen ist unabdingbar für eine erfolgreiche Integration eines Knochentransplantats in das Gewebe. Daher ist ein umfangreich ausgebildetes Blutgefäßsystem für einen verbesserten Heilungsprozess während der klinischen Anwendung wünschenswert. Frühere Experimente zeigen, dass sich die Anwendung von Ko-Kulturen aus humanen primären Osteoblasten (pOB) und humanen outgrowth endothelial cells (OEC) im Hinblick auf die Bildung stabiler gefäßähnlicher Strukturen in vitro, die auch effizient in das mikrovaskuläre System in vivo integriert werden konnten, als erfolgreich erweisen. Dieser Ansatz könnte genutzt werden, um prä-vaskularisierte Konstrukte herzustellen, die den Knochenheilungsprozess nach der Implantation fördern. Zusätzlich repräsentiert das Ko-Kultursystem ein exzellentes in vitro Model, um Faktoren, welche stark in den Prozess der Knochenheilung und Angiogenese eingebunden sind, zu identifizieren und zu analysieren. Es ist bekannt, dass Makrophagen eine maßgebliche Rolle in der inflammatorisch-induzierten Angiogenese spielen. In diesem Zusammenhang hebt diese Studie den positiven Einfluss THP-1 abgeleiteter Makrophagen in Ko-Kultur mit pOB und OEC hervor. Die Ergebnisse zeigten, dass die Anwendung von Makrophagen als inflammatorischer Stimulus im bereits etablierten Ko-Kultursystem zu einer pro-angiogenen Aktivierung der OEC führte, was in einer signifikant erhöhten Bildung blutgefäßähnlicher Strukturen in vitro resultierte. Außerdem zeigte die Analyse von Faktoren, die in der durch Entzündung hervorgerufenen Angiogenese eine wichtige Rolle spielen, eine deutliche Hochregulation von VEGF, inflammatorischer Zytokine und Adhäsionsmoleküle, die letztlich zu einer verstärkten Vaskularisierung beitragen. Diese Resultate werden dem Einfluss von Makrophagen zugeschrieben und könnten zukünftig im Tissue Engineering eingesetzt werden, um den Heilungsprozess zu beschleunigen und damit die klinische Situation von Patienten zu verbessern. Darüber hinaus könnte die Kombination der auf Ko-Kulturen basierenden Ansätze für das Knochen Tissue Engineering mit einem biomaterial-basierenden Arzneimittelabgabesystem zum klinischen Einsatz kommen, der die Eliminierung verbliebener Krebszellen mit der Förderung der Knochenregeneration verbindet.
Resumo:
Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.
Resumo:
Generative Verfahren sind seit etwa 1987 in den USA und seit etwa 1990 in Europa und Deutschland in Form von Rapid Prototyping Verfahren bekannt und haben sich in dieser Zeit von eher als exotisch anzusehenden Modellbauverfahren zu effizienten Werkzeugen für die Beschleunigung der Produktentstehung gewandelt. Mit der Weiterentwicklung der Verfahren und insbesondere der Materialien wird mehr und mehr das Feld der direkten Anwendung der Rapid Technologie zur Fertigung erschlossen. Rapid Technologien werden daher zum Schlüssel für neue Konstruktionssystematiken und Fertigungsstrategien. Die Anwendertagung Rapid.Tech befasst sich mit den neuen Verfahren zur direkten Produktion und den daraus erwachsenden Chancen für Entwickler und Produzenten. Die Kenntnis der Rapid Prototyping Verfahren wird bei den meisten Fachvorträgen auf der Rapid.Tech vorausgesetzt. Für diejenigen, die sich bisher mit generativen Verfahren noch nicht beschäftigt haben, oder die ihre Grundkenntnisse schnell auffrischen wollen, haben wir die folgenden Zusammenfassung der Grundlagen der generativen Fertigungstechnik, der heutigen Rapid Prototyping Verfahren, zusammengestellt.
Resumo:
Bisher wurde noch nicht erforscht wie sich die Variation kinematischer Parameter konkret auf den Energiebedarf von Regalbediengeräten auswirkt. Dieser Beitrag untersucht daher die energetischen Folgen bei unterschiedlichen Geschwindigkeiten und Beschleunigungen der Antriebe eines Regalbediengerätes. Veränderte Geschwindigkeiten und Beschleunigungen beeinflussen jedoch auch die Fahr- und Hubzeiten des Regalbediengerätes. Daher wird ebenfalls eine Berechnungsmethode vorgestellt, mit der der optimale Startpunkt des Hubwerkes und die optimale Fahrgeschwindigkeit auf Basis der eingestellten kinematischen Parameter berechnet werden können.
Resumo:
Die Testphasenverordnung bildet die rechtliche Grundlage des Versuchs der Neustrukturierung des Asylverfahrens in der Schweiz und hat sich somit an deren Zielvorgaben zu messen. Aus diesem Grund wird in diesem Artikel die Frage untersucht, ob das Ziel der Effizienz unter gleichzeitiger Wahrung der Fairness im Asylverfahren durch das aktuelle Umsetzungsvorhaben erreicht wird. Nach einer Darstellung der geplanten Verfahrensabläufe werden zuerst die der Beschleunigung dienenden Bestimmungen der Testphasenverordnung dargestellt und kommentiert, danach diejenigen welche der Fairness und Rechtsstaatlichkeit dienen sollen. Im Ausblick werden weitere Fragen aufgeworfen und es wird versucht eine Einschätzung zu geben, ob das für die Testphase vorgesehene Verfahren geeignet ist, die Glaubwürdigkeit des Asylsystems zu fördern.
Resumo:
In diesem Beitrag wird eine neue Methode zur Analyse des manuellen Kommissionierprozesses vorgestellt, mit der u. a. die Kommissionierzeitanteile automatisch erfasst werden können. Diese Methode basiert auf einer sensorgestützten Bewegungsklassifikation, wie sie bspw. im Sport oder in der Medizin Anwendung findet. Dabei werden mobile Sensoren genutzt, die fortlaufend Messwerte wie z. B. die Beschleunigung oder die Drehgeschwindigkeit des Kommissionierers aufzeichnen. Auf Basis dieser Daten können Informationen über die ausgeführten Bewegungen und insbesondere über die durchlaufenen Bewegungszustände gewonnen werden. Dieser Ansatz wird im vorliegenden Beitrag auf die Kommissionierung übertragen. Dazu werden zunächst Klassen relevanter Bewegungen identifiziert und anschließend mit Verfahren aus dem maschinellen Lernen verarbeitet. Die Klassifikation erfolgt nach dem Prinzip des überwachten Lernens. Dabei werden durchschnittliche Erkennungsraten von bis zu 78,94 Prozent erzielt.
Resumo:
Die Deutung der stärkeren Wachstumsunterbrechungen auf den Schalen von Muscheln als "Jahresringe" wird weiter unterbaut. Bei langlebigen Arten wird daraus ein Rhythmus nachgewiesen, der an den 11-jährigen Sonnenfleckenrhythmus erinnert. Die kleineren intraannuellen Wachstumsstörungen ("Monatsringe?") werden in ihrer durchschnittlichen jährlichen Häufigkeit vom Silur bis zur Gegenwart verfolgt. Es wird eine allmähliche Zunahme im Verlauf der Erdgeschichte festgestellt. Dabei ergeben sich kleinere Sprünge zwischen Karbon und Perm sowie zwischen Trias und Jura. Ein größerer Sprung ist zwischen Jura und Kreide erkennbar. Im Palaeozän gleichen die Zahlen noch sehr denen der Kreide, während vom Eozän ab wieder eine dann gleichbleibende Zunahme sichtbar ist. Die intraannuellen Zuwachsunterbrechungen ("Monatsringe") dürften in der Mehrzahl nicht durch Milieueinflüsse entstanden sein. Zu ihren Ursachen könnten vielleicht Beziehungen zur Kurve der Beschleunigung des erdgeschichtlichen Ablaufes oder jener der Erdexpansion hinführen. Auch die "Monatsringe" lassen unter der Lupe noch kleinere Wachstumsunterbrechungen erkennen, bei denen am ehesten noch örtliche Milieubedingungen mitgewirkt haben könnten.
Resumo:
Der vorliegende Wiederabdruck eines 1937 publizierten Textes rückt die Aktualität der damaligen bildungspolitischen Reformbemühungen zur Schulzeitverkürzung und Studiendauer in den Vordergrund. (DIPF/Bal)