430 resultados para dreiteiliger Aufbau
Resumo:
In this work, a method for the functionalization of biocompatible, poly(lactic acid)-based nanoparticles with charged moieties or fluorescent labels is presented. Therefore, a miniemulsion solvent evaporation procedure is used in which prepolymerized poly(L-lactic acid) is used together with a previously synthesized copolymer of methacrylic acid or a polymerizable dye, respectively, and an oligo(lactic acid) macromonomer. Alternatively, the copolymerization has been carried out in one step with the miniemulsion solvent evaporation. The increased stability in salty solutions of the carboxyl-modified nanoparticles compared to nanoparticles consisting of poly(lactic acid) only has been shown in light scattering experiments. The properties of the nanoparticles that were prepared with the separately synthesized copolymer were almost identical to those in which the copolymerization and particle fabrication were carried out simultaneously. During the characterization of the fluorescently labeled nanoparticles, the focus was on the stable bonding between the fluorescent dye and the rest of the polymer chain to ensure that none of it is released from the particles, even after longer storage time or during lengthy experiments. In a fluorescence correlation spectroscopy experiment, it could be shown that even after two weeks, no dye has been released into the solvent. Besides biomedical research for which the above described, functionalized nanoparticles were optimized, nanoparticles also play a role in coating technology. One possibility to fabricate coatings is the electrophoretic deposition of particles. In this process, the mobility of nanoparticles near electrode interfaces plays a crucial role. In this thesis, the nanoparticle mobility has been investigated with resonance enhanced dynamic light scattering (REDLS). A new setup has been developed in which the evanescent electromagnetic eld of a surface plasmon that propagates along the gold-sample interface has been used as incident beam for the dynamic light scattering experiment. The gold layer that is necessary for the excitation of the plasmon doubles as an electrode. Due to the penetration depth of the surface plasmon into the sample layer that is limited to ca. 200 nm, insights on the voltage- and frequency dependent mobility of the nanoparticles near the electrode could be gained. Additionally, simultaneous measurements at four different scattering angles can be carried out with this setup, therefore the investigation of samples undergoing changes is feasible. The results were discussed in context with the mechanisms of electrophoretic deposition.
Resumo:
Ziel dieser Arbeit war die Totalsynthese von Monilicin. Seine Chlor- und Brom-Derivate wurden aus Monilinia fructicola isoliert und zeigten fungizide Wirkung. Die Schlüsselschritte der Synthese sind der Aufbau des ε-Lakton, die Einführung der exozyklischen Carboxymethyl-Gruppe und der Einbau der Doppelbindung in das Lakton. Es wurden drei Synthesestrategien verfolgt, wobei die Bildung des Laktons über eine Veresterung erfolgen sollte.rnÜber enantioselektive Syntheseschritte sollten die reinen Enantiomere erhalten werden. Ausgehend vom Orcinol erfolgte auf allen Syntheserouten zuerst der Aufbau des 5-Hydroxy-7-methylchromon-Grundgerüstes, und anschließend dessen Funktionalisierung in den Positionen 2 und 3. Der Ringschluss zum ε-Lakton gelang über eine Steglich-Veresterung. Syntheseweg A lieferte nach der Oxidation der primären exozyklischen Alkoholgruppe und anschließender Methylierung das Dihydromonilicin. Auf dem Syntheseweg B gelang die Einführung der späteren exozyklischen Carboxymethyl-Gruppe vor der Laktonisierung. Aus der Dicarbonsäure konnte zum ersten Mal auch der Naturstoff Oxalicumon C totalsynthetisch dargestellt und seine absolute Konfiguration aufgeklärt werden. Nach selektiver Hydrolyse konnte aus Oxalicumon C ebenfalls das Dihydromonilicin synthetisiert werden. Die Darstellung von Monilicin durch Einführung der Doppelbindung in das Dihydromonilicin oder bereits vor der Laktonisierung (Syntheseweg C) konnte nicht erreicht werden. Einige der Chromon-Derivate zeigten fungizide und zytotoxische Aktivitäten. rn
Resumo:
Bei den Pflanzen sind viele Fragen bezüglich der Organisation und Regulation des bei der Zellteilung und differenzierung wichtigen Auf-, Ab- und Umbaus des Mikrotubuli-Netzwerkes noch immer offen, insbesondere was die Rolle des γ-Tubulins betrifft. Ziel der vorliegenden Arbeit war die Etablierung von BY-2 Modell-Zelllinien (Nicotiana), die verschiedene mit fluoreszierenden Proteinen (FP) markierte Elemente des Cytoskeletts exprimieren, um eine fluoreszenzmikroskopische Detektion in vivo zu ermöglichen.rnAls Grundlage für alle weiteren Versuche wurde eine zuverlässige Methode zur A. tumefaciens vermittelten stabilen Transfektion von BY-2 Zellen erarbeitet. Für die Expression von FP-markierten Cytoskelettproteinen, wurden entsprechende Fusionskonstrukte kloniert und via A. tumefaciens in BY-2 Zellen transferiert. So gelang zunächst die Herstellung transgener Zelllinien, die GFP-markiertes α- bzw. γ-Tubulin exprimierten. Diese sollten später als Basis für die Untersuchung des dynamischen Mikrotubuli-Netzwerkes bzw. dessen Regulation dienen. In beiden Zelllinien standen die Konstrukte zunächst unter Kontrolle eines doppelten 35S-Promotors, was zu einer starken, konstitutiven Expression der Transgene führte. Fluoreszenzmikroskopisch konnten Strukturen, an deren Aufbau Mikrotubuli beteiligt sind, detektiert werden. Aufgrund einer starken Hintergrundfluoreszenz, vermutlich bedingt durch die konstitutive Überexpression, war die Darstellung feinerer Bereiche, wie sie im Cytoskelett häufig auftreten, jedoch äußerst schwierig. Deshalb wurde eine schwächere bzw. adäquate Expressionsrate angestrebt. rnPhysiologische Expressionsraten sollten vor allem durch den endogenen γ-Tubulin-Promotor ermöglicht werden. Da die entsprechende Sequenz noch unbekannt war, wurde sie zunächst bestimmt und in ein passendes Konstrukt integriert. Fluoreszenzmikroskopische Untersuchungen der resultierenden Zelllinie ließen auf eine stark reduzierte Expressionsrate schließen. Tatsächlich war die Detektion von Cytoskelettstrukturen, wenn überhaupt, erst bei deutlich längeren Belichtungszeiten möglich. Bedingt durch die langen Belichtungszeiten wurde die Dokumentation durch eine latente pflanzentypische Autofluoreszenz der Zellen erschwert. Auch wenn hier keine detailreicheren Aufnahmen der Cytoskelettstrukturen möglich waren, ist die Zellkultur für weiterführende Untersuchungen, z.B. in Studien bezüglich des zeitlichen Expressionsmusters des γ-Tubulins, potentiell geeignet. Der Einsatz eines sensibleren Mikroskopsystems ist allerdings erforderlich. rnUm klären zu können, inwieweit γ-Tubulin mit den Mikrotubuli co-lokalisiert, wurden Zelllinien benötigt, bei denen die entsprechenden Elemente unterschiedlich markiert waren. Zu diesem Zweck wurde der Einsatz von RFP-markiertem Tubulin getestet. Eine deutliche Überexpression von RFP alleine war möglich. Trotz mehrfacher Wiederholung der Versuche war aber keine Expression von RFP-markiertem α-Tubulin in BY-2 Zellen zur Visualisierung der Mikrotubuli detektierbar. Die DNA-Sequenzen waren im Genom nachweisbar, eine Transkription jedoch nicht. Möglicherweise spielten hier gene silencing Effekte eine Rolle. Das verwendete RFP (TagRFP) und GFP stammten aus unterschiedlichen Organismen, aus einer Seeanemone bzw. einer Qualle. Eine Lösung könnte der Austausch des TagRFP durch ein Quallen-Derivat, das in einer von grün unterscheidbaren Farbe fluoresziert, bringen. Da bereits BY-2 Zelllinien vorliegen, die GFP-markiertes α- bzw. γ-Tubulin exprimieren, sollte es, nach Klonieren eines entsprechenden Konstruktes, zeitnah möglich sein, eine doppelt transfizierte Zelllinie herzustellen.
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn
Resumo:
In der vorliegenden Forschungsarbeit wird die Konkurrenz von Kristallisation und Verglasung in metastabilen kolloidalen Hart-Kugel(HK)-Modellsystemen mit dynamischer und zeitaufgelöster statischer Lichtstreuung untersucht. Durch gleichzeitige Messungen mit beiden Methoden an derselben Probe gelang es, mit hoher Genauigkeit und aussagekräftiger Statistik nachzuweisen, dass in beiden Systemklassen eine starke Korrelation der strukturellen und dynamischen Eigenschaften vorliegt und diese Korrelation zu quantifizieren. Ein zentraler Teil der Arbeit bestand in dem Aufbau einer geeigneten Lichtstreuanlage mit der erstmalig Messungen der Dynamik und der Struktur simultan an derselben nicht-ergodischen Probe durchgeführt werden konnten. Für die dynamische Lichtstreuung wurde ein Flächendetektor (CCD-Kamera) verwendet. In Kombination mit einer speziellen Detektionsoptik ermöglicht dies, die gleichzeitige Detektion von Streulicht aus unterschiedlichen Probenbereichen (Subensembles). Damit kann gleichzeitig die Dynamik in unterschiedlichen Subensembles mit einer Auflösung von 15,8x15,8µm2 untersucht werden. Die Lichtstreuanlage wurde ausführlich charakterisiert und ihre korrekte Funktionsweise mithilfe von Vergleichsmessungen an etablierten Lichtstreuanlagen bestätigt. Die zeitliche Entwicklung der Dynamik und der Struktur von metastabilen Proben wurde unterhalb, am und oberhalb des Glasübergangs quantifiziert. Dabei zeigte das untersuchte kolloidale HK-Modellsystem alle typischen Eigenschaften eines HK-Systems. Die kristallisierenden Proben zeigten das etablierte zweistufige Kristallisationsszenario mit entsprechender Kristallisationskinetik und die Glasproben zeigten das erwartete Alterungsverhalten. Bei dem zweistufigen Kristallisationsszenario kommt es zuerst zur Nukleation einer metastabilen Zwischenphase von sogenannten Precursorn. In einer zweiten Stufe bilden sich Kristallite innerhalb dieser Precursor. Durch Vergleich zwischen kristallisierenden und verglasenden Proben konnte auch während der Verglasung die Bildung von Precursorn beobachtet werden. Die Korrelation zwischen der Anzahl an Precursorn und der Partikeldynamik legt die Vermutung nahe, dass das immer noch unverstandene Phänomen der Alterung von Gläsern mit der Bildung von Precursorn zusammenhängt. Verhinderte Kristallisation führt zu einer starken Verlangsamung der Partikeldynamik. Die Partikeldynamik einer Probe am Glasübergang zeigt, dass die Probe vor Einsetzen der Kristallisation eine glasartige Dynamik aufwies. Dies legt die Vermutung nahe, dass einkomponentige kolloidale HK-Gläser den Gleichgewichtszustand (Kristall) auf langen Zeitskalen erreichen können. Durch die Untersuchung der Partikeldynamik von metastabilen Proben in einzelnen Subensembles konnte eine heterogene Verteilung der Partikeldynamik nachgewiesen werden. Es existieren Bereiche, in denen die Partikeldynamik schneller oder langsamer ist als in anderen Bereichen. Gleichzeitig zeigen die Messungen der strukturellen Eigenschaften, dass metastabile Proben auch heterogen bezüglich ihrer Struktur sind. Mithilfe dieser Messungen konnte die zeitliche Entwicklung des Anteils an langsamen Partikeln und des Anteils an Partikeln innerhalb von Objekten höherer Ordnung (Precursor/Kristallite) bestimmt werden. Es zeigte sich eine direkte Korrelation zwischen dem Anteil an langsamen Partikeln und dem Anteil an Partikeln in Objekten höherer Ordnung. Die Untersuchung der Dynamik und der Struktur in einzelnen Subensembles lieferte einen weiteren Hinweis darauf, dass Subensembles, in denen eine stärker ausgeprägte strukturelle Ordnung vorliegt, auch bevorzugt eine langsamere Partikeldynamik aufweisen.
Resumo:
Die Sekundärmetabolite 4-Dechlor-14-deoxyoxacyclododecindion, 14-Deoxyoxacyclo-dodecindion und Oxacyclododecindion zeigten in ersten in vitro-Studien eine Hemmung des TGF-β- sowie des JAK-STAT-Signaltransduktionsweges im nanomolaren Konzentrationsbereich. Sie stellen potentielle Leitstrukturen für die Entwicklung neuer Therapeutika zur Behandlung chronisch entzündlicher und/oder fibrotischer Erkrankungen dar. Ziel dieser Arbeit war die Entwicklung eines totalsynthetischen Zugangs zu diesen Makrolactonen.rnDer erste retrosynthetische Ansatz bestand aus einer Ringschluss-Metathese/Reduktions/Eliminierungs-Sequenz. Während das gesättigte Makrolacton-grundgerüst dargestellt werden konnte, schlug die Einführung der Doppelbindung fehl. Es wurde nur ein exo-Methylen-Derivat erhalten. Eine Syntheseroute über eine carbonylierende Kreuzkupplung oder über eine intramolekulare Hydroacylierung verliefen erfolglos. Versuche zum Aufbau des α,β-ungesättigten Enons über das β,γ-ungesättigte Enon in einer Ringschluss-Metathese/Isomerisierungs-Sequenz führten stattdessen zur Bildung eines γ,δ-ungesättigten Ketons und eines 12-Oxo-10,11-dehydrocurvularin-Derivates.rnEine intramolekulare Friedel-Crafts-Acylierung ermöglichte den Ringschluss, sodass die beiden Naturstoffe 4-Dechlor-14-deoxyoxacyclododecindion sowie 14-Deoxyoxa-cyclododecindion synthetisiert werden konnten. Durch die Totalsynthese konnte zudem die bisher unbekannte relative Konfiguration der zwei Stereozentren aufgeklärt werden. Die während dieser Arbeit erhaltenen Derivate ermöglichten es, Struktur-Wirkungs-Beziehungen für diese Makrolactone aufzustellen.rnIn weiteren biologischen Studien von Kooperationspartnern wurde die hohe Wirksamkeit im nanomolaren Konzentrationsbereich bestätigt. Eine erste in vivo-Studie zur Behandlung von systemischem Lupus erythematodes mit 14-Deoxyoxacyclododecindion deutet auf eine verminderte Entzündungsreaktion und positive Effekte auf chronische Nierenschäden hin.rn
Resumo:
Depressive Symptome und depressive Störungen sind für die Erstmanifestation einer koronaren Herzkrankheit (KHK) bedeutsam und beeinflussen die Prognose nach einem ersten kardialen Ereignis negativ. Nach einer Studie zur Wirkung von kognitiver Verhaltenstherapie im Jahr 2003 (ENRICHD) wurde im Jahr 2007 die zweite große randomisierte kontrollierte psychotherapeutische Interventionsstudie für depressive Patienten mit KHK veröffentlicht (CREATE). ENRICHD konnte zwar antidepressive Effekte einer kognitiven Verhaltenstherapie sechs Monate nach dem Herzinfarkt nachweisen, jedoch gab es keinen Effekt auf die kardiale Prognose. Die Wirksamkeit von Psychotherapie (IPT) auf die depressive Symptomatik konnte in der zweiten Studie (CREATE) nicht belegt werden. Der Aufbau beider Studien und die daraus resultierenden Kritikpunkte wurden in diesem Beitrag dargestellt. Die externe Validität der Ergebnisse für die psychotherapeutische Versorgung depressiver KHK-Patienten im deutschen Sprachraum wurde kritisch kommentiert.
Resumo:
Durch die Bologna-Reform an den Hochschulen soll die Beschäftigungsfähigkeit der Studierenden verbessert werden. Damit geht ein verändertes Selbstverständnis von Hochschulunterricht einher. Im Fokus steht der Aufbau von überprüfbaren Kompetenzen. Lehrpersonen aus verschiedenen fachlichen Disziplinen zeigen an konkreten Beispielen ein derart gestaltetes Lehren und Lernen.
Resumo:
Zahnriemenfördersysteme haben auf Grund ihrer wirtschaftlichen und technischen Vorteile beim Transport von Stückgütern ein breites Anwendungsfeld in den unterschiedlichen Bereichen der Industrie gefunden und gewinnen weiterhin an Bedeutung. Die Auslegung der Systeme beschränkt sich gegenwärtig im Wesentlichen auf die Zugstrang- und die Zahnfußfestigkeit des Zahnriemens. Grundlagen der Berechnungen sind oft recht vage Aussagen zur Höhe des Reibwertes zwischen dem Zahnriemen und dessen Stützschiene. Die Erhöhung der Kontakttemperatur durch die eingebrachte Reibleistung wird meist völlig vernachlässigt. In der Praxis wird oftmals auf Erfahrungswerte zurückgegriffen, wobei die Gefahr der Über- bzw. Unterdimensionierung mit erheblichen Auswirkungen auf die Lebensdauer, das Verschleißverhalten und die Betriebssicherheit besteht. 1. Anwendung von Zahnriemenförderern Das Einsatzgebiet der Zahnriemen ist neben der Antriebstechnik in zunehmendem Maße die Fördertechnik, wo diese als Zug- und Tragmittel für den Stückguttransport zur Anwendung kommen. Der Grund dieser Entwicklung lässt sich mit den günstigen Eigenschaften dieser Maschinenelemente erklären. Besonders zu erwähnen sind dabei der geräuscharme Lauf, die geringe Masse und die niedrigen Kosten in Anschaffung und Wartung. Der synchrone Lauf, der mit Zahnriemen wie auch mit Förderketten realisierbar ist, ist ein weiterer wesentlicher Vorteil. Dabei übernehmen die robusten Förderketten den Bereich der Fördertechnik, in dem große Kräfte übertragen werden müssen und stark schmutzintensive Umgebungsbedingungen vorherrschen. Haupteinsatzgebiete der Zahnriemenförderer ist der Bereich der empfindlicheren Güter mit relativ geringen Massen, wobei sich immer mehr abzeichnet, dass auch Einsatzgebiete mit schweren Werkzeugträgern erschlossen werden. Die Transportzahnriemen müssen bei dem Einsatz zahnseitig abgestützt werden, um die Gutmasse aufnehmen zu können. Stückgüter können von Zahnriemen durch Kraft- oder Formschluss transportiert werden. Der Einsatz ist von den technologischen Erfordernissen und der Art des Transportgutes abhängig. Formschluss wird meist über aufgeschweißte Formelemente / Mitnehmer realisiert. Diese Art des Transportes wird verwendet, wenn Teile: • vereinzelt, • genau positioniert, ������ zeitlich exakt getaktet, • über starke Steigungen bis hin zum vertikalen transportiert werden müssen, • bzw. sich gegenseitig nicht berühren dürfen. Abbildung 1: Formschlüssiger Transport mit aufgeschweißten Formelementen Die Art und die Form des auf dem Zahnriemenrücken aufgebrachten Formelementes werden vom Gut selbst und dem Einsatzzweck bestimmt. Eine Vielzahl von verschiedenen Elementen wird von der Industrie standardmäßig angeboten. Bei der kraftschlüssigen Variante können zwei grundlegende Arten unterschieden werden: Zum einen Zahnriemenbeschichtungen mit sehr hohem Reibwert, zum anderen mit sehr niedrigen Reibwerten. Beschichtungen mit sehr hohem Reibwert (z. B. Silikon, PUR-Schaum, Naturkautschuk) eignen sich besonders für Schrägförderer und Abzugsbänder sowie für einfache Positionieraufgaben. Dabei wird eine relative Verschiebung des Gutes zum Zahnriemen durch den hohen Reibwert in der Kontaktzone behindert. Abbildung 2: Abzugsband für biegeschlaffe Flachformkörper z. B. Folie, Textilien Zahnriemenrückenbeschichtungen mit geringen Reibwerten bestehen meist aus Polyamidgewebe und eignen sich besonders gut für den Staubetrieb. Hierbei dient der Zahnriemen selbst als Zwischenspeicher. Bei Bedarf können die Güter freigegeben werden. Dabei muss aber sichergestellt werden, dass auch die Auflagefläche des Fördergutes für einen solchen Einsatzzweck geeignet ist, da es zu einer Relativbewegung zwischen Gut und undZahnriemen kommt. Abbildung 3: Stauförderer Parallelförderer können sowohl als reibschlüssige als auch als formschlüssige Variante ausgeführt werden. Ihr Vorteil liegt darin, dass größere Güter, z. B. Flachglas, Bleche usw. auf zwei oder mehreren Riemen aufliegen und durch die gleiche Geschwindigkeit der synchron angetriebenen Riemen keine Verschiebung des Gutes erfolgt. Würde der Antrieb nicht über Zahnriemen erfolgen, sondern über Flachriemen bzw. Gurte, wäre außerdem ein Zugmittel in der Breite des Fördergutes notwendig. Daraus ergibt sich zusätzlich eine wesentliche Massereduzierung der Zugmittel für den Stückguttransport in der Fördertechnik. Abbildung 4: Parallelförderer für kraftschlüssigen Transport Allen diesen Varianten ist jedoch gemein, dass der Zahnriemen auf einer Stützschiene gleitet und die Normalkraft des Transportgutes in Verbindung mit Riemengeschwindigkeit und Reibwert eine Reibleistung und damit Wärme erzeugt. Zum gegenwärtigen Zeitpunkt fehlen exakte Angaben zu den Reibwerten für die einzelnen Gleitpaarungen. Auch ist eine Veränderung dieser Reibwerte bei Geschwindigkeits-, Temperatur-, und Belastungsänderung ungeklärt. Des Weiteren ist es auch notwendig, die Belastungsgrenzen für die Auslegung von Zahnriemenförderern zu definieren und das Verschleißverhalten zu kennen. Die derzeit üblichen Auslegungskriterien für diese fördertechnischen Anlagen sind Zugstrangfestigkeit und Zahnfußfestigkeit. Dabei bleibt jedoch die Erwärmung des Zugmittels und der Stützschiene durch die eingebrachte Reibleistung und den sich ändernden Reibwert unbeachtet. Insbesondere bei kurzen Förderstrecken mit großen Lasten bzw. hohen Transportgeschwindigkeiten ist die Gefahr von thermischen Überlastungen gegeben, welche zu erhöhtem Verschleiß bzw. zum Totalausfall der Anlage führen kann. Soll dieses zusätzliche Auslegungskriterium angewandt werden, sind Erkenntnisse aus den Gebieten der Tribologie und der Wärmelehre/Thermodynamik anzuwenden. Zum einen ist eine Bestimmung der entstehenden Reibleistung notwendig und zum anderen der abgeführte Wärmestrom zu ermitteln. Die sehr komplexen Zusammenhänge werden durch konstruktive und technologische Größen beschrieben, welche sich wiederum gegenseitig beeinflussen. 2. Reibwerte in der Gleitpaarung In DIN ISO 7148-2 sind die Besonderheiten bei der tribologischen Prüfung von polymeren Werkstoffen beschrieben. Dabei wird explizit darauf hingewiesen, dass die Prüfanordnung möglichst der praktischen Anwendung entsprechen sollte, um die Übertragbarkeit der Prüfergebnisse zu gewährleisten. Deshalb wurde ein Versuchsstand konzipiert, der die Kontaktverhältnisse von Zahnriemen und Stützschienen möglichst real abbildet (Abb.5). Abbildung 5: Schematischer Aufbau des Versuchsstandes Für die Untersuchung der Zahnriemenpaarung wird der Zahnriemen mit der Zahnseite nach oben aufgespannt. Auf die nach oben zeigende Zahnseite wird eine planparallele Platte des jeweiligen Gleitschienenmaterials aufgelegt. Die Flächenpressung der Paarung lässt sich über aufgebrachte Massestücke variieren und die Reibkraft über den Kraftsensor direkt über eine Schnittstelle zur Aufzeichnung an einen Rechner weiterleiten. Zur Ermittlung der Kontakttemperaturen wurden Bohrungen in das Gleitschienenmaterial eingebracht, die unmittelbar bis an die Oberfläche der Kontaktfläche reichen und mit Thermoelementen bestückt sind. Die Abstützung des Zahnriemens erfolgt auf einem Flachriemen, der wiederum auf einer Rollenbahn abrollt. Dadurch wird ein zusätzlicher Wärmeeintrag durch eine gleitende Abstützung vermieden. Die Gleitgeschwindigkeit und Flächenpressung auf die Paarung werden in Stufen variiert. Als Versuchszahnriemen dienten PU-Riemen mit und ohne zahnseitiger Polyamidbeschichtung der Abmessung 1250 x 25 T10. Abbildung 6: Reibwertmessungen an PU-Zahnriemen ohne Beschichtung (Kurzzeitversuche) Die ermittelten Messwerte der Gleitreibungszahl µ für verschiedene PU-Zahnriemen – Stützschienenkombinationen sind in Abbildung 6 dargestellt. Die schraffierten Balken geben die Reibungszahlempfehlungen von Herstellern sowie aus Literaturquellen für diese Paarungen wieder. Oft wird jedoch darauf hingewiesen, dass für einen konkreten Anwendungsfall eigene Untersuchungen durchzuführen sind. Die grauen Balken geben die bei einer Versuchsdauer von bis zu 8 Stunden ermittelten Reibungszahlen wieder. Dabei wurden sowohl die Flächenpressungen als auch die Gleitgeschwindigkeiten variiert. Bei einigen Paarungen (Holz (Abb.7)) konnte ein sehr starker abrasiver Verschleiß am Zahnriemen festgestellt werden. Diese Werkstoffkombinationen sind nur für geringe Belastungen geeignet. Abbildung 7: Oberfläche PU-Zahnriemen, verschlissen an Schichtholz Die Paarungen in Verbindung mit Stahl- bzw. Aluminiumstützschienen neigen zu stick-slip- Erscheinungen verbunden mit starker Geräuschentwicklung. Aufgrund der relativ hohen Reibungszahlen wurden keine Dauerversuche an unbeschichteten PU-Zahnriemen durchgeführt. Für die weiteren Untersuchungen wurden ausschließlich polyamidbeschichtete Zahnriemen verwendet. In Abbildung 8 werden die Ergebnisse der Reibwertuntersuchungen an PAZ-Zahnriemen (Polyamidgewebebeschichtung auf der Zahnseite) dargestellt. Die schraffierten Balken stellen wiederum die bisherigen Empfehlungen dar, die grauen Balken die ermittelten Messwerte im Kurzzeitversuch (bis 8 Stunden) und die schwarzen Balken die Messwerte im Langzeitversuch (zwischen 7 und teilweise bis zu 100 Tagen). Hier ist die Übereinstimmung der Reibungszahlen zwischen Empfehlungen und Kurzzeitmesswerten sehr gut. Der deutliche Anstieg der Werte im weiteren Verlauf der Untersuchungen deutet daraufhin, dass der tribologische Einlauf innerhalb von 8 Stunden meist noch nicht abgeschlossen ist und dass nach fortlaufender Belastung weitere tribologische Phänomene die Kontaktverhältnisse ändern. Abbildung 8: Reibungszahlen an polyamidbeschichteten PU-Zahnriemen (PAZ) in Verbindung mit verschiedenen Gleitschienen Bei den Paarungen mit einer Stützschiene aus Stahl, Aluminium oder Schichtholz konnte eine polymere Filmbildung auf der Gleitfläche beobachtet werden. In Abbildung 9 und 10 ist die Entwicklung am Beispiel von Stahlproben zu sehen. Gemeinsam bei diesen Paarungen ist die fortschreitende Schichtbildung, verbunden mit einer Reibwerterhöhung. Der Verschleiß der Gewebeschicht am Zahnriemen setzt bei größeren Reibungszahlen ein, was zu deren weiterer Erhöhung führt Ein weiterer Einsatz führt zur vollständigen Abtragung der Gewebeschicht und damit zu einer neuen tribologischen Paarung PU-Zahnriemen ��� Polymerschicht. Abbildung 9: beginnende polymere Ablagerung auf Stahlprobe Rz28 Abbildung 10: nahezu geschlossener polymerer Film auf Stahlprobe Rz28 Am Beispiel der Paarung PAZ Zahnriemen – Stahlstützschiene wird die Entwicklung der Reibungszahl über die Zeit des Gleitkontaktes in Abbildung 12 dargestellt. Dabei wurde die Oberflächenrauigkeit (Rz 6,3; Rz 28) durch entsprechende Bearbeitungen variiert. Der relativ starke Anstieg an der Paarung Rz 6,3 kann zum einen auf die hohe Gleitgeschwindigkeit und den damit entsprechend langen Gleitweg zurückgeführt werden, zum anderen auf den höheren adhäsiven Anteil durch die relativ glatte Oberfläche und der damit erhöhten Kontaktfläche. Abbildung 11 zeigt einen verschlissenen Zahnkopf. Abbildung 9: Verschlissene Zahnkopfflanke, PAZ - Stahl Abbildung 10: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PA – Stahl Die Erhöhung der Reibungszahlen an der Paarung PE UHMW - polyamidbeschichteter Zahnriemen kann nicht unmittelbar auf direkte Verschleißerscheinungen zurückgeführt werden. Sowohl die Gleitfläche als auch der Zahnriemen weisen auch nach längerem Kontakt keine sichtbaren Schäden auf: Es bildet sich kein polymerer Film auf der PE- UHMW- Gleitfläche heraus. In Abbildung 11 wird die Änderung der Reibungszahl dargestellt. Es wurden Paarungen mit steigendem p•v-Wert gewählt. Mit höheren Werten für die eingebrachte Leistung pro Flächeneinheit ist ein schnellerer Anstieg der Reibungszahlen zu verzeichnen. Abbildung 11: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PAZ – PE UHMW Die Erhöhung der Reibwerte zieht nicht nur eine Steigerung der Antriebsleistung nach sich, sondern auch eine Zunahme der Reibleistung und damit einen Anstieg der Kontakttemperatur. Hat diese einen bestimmten Wert erreicht, kommt es zum Aufschmelzen der Gleitflächen und damit zum Totalausfall der Paarung (Abbildungen 14, 15, 16). Ebenfalls tritt durch die Reibwerterhöhung eine höhere Belastung des Zugstranges und der Zahnfüße im Einlauf des Zahnriemens auf. Für eine konstruktive Auslegung entsprechender Zahnriemenförderer ist dies durch entsprechende Sicherheitsfaktoren zu berücksichtigen. Abbildung 12: Aufgeschmolzene PE-Laufschiene, 2-fach vergrößert Abbildung 13: geschmolzene Faserbündel 20- fach Abbildung 14: zerstörtes Gewebe in Folge thermischer Überlastung 3. Thermische Zusammenhänge Die Temperaturerhöhung in der Wirkstelle zwischen Zahnriemen und Stützschiene kann im stationären Zustand in der vereinfachten Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche a Wärmeübergangskoeffizient l Wärmeleitwert Abbildung 15: Kontaktmodell dargestellt werden. Dabei werden verschiedene Vereinfachungen angenommen: • Reibleistung wird auf die gesamte Fläche gleichmäßig verteilt, • Wärmestrom erfolgt nur in Normalenrichtung zur Gleitfläche, • konstante Reibleistung über die gesamte Zeit, • keine Ableitung des Wärmestromes über Stirn- und Seitenflächen, • eingeschwungener Gleichgewichtszustand der Temperaturverteilung, • gleiche Temperatur über der jeweiligen Oberfläche, • gleiche Strömungsverhältnisse und -bedingungen an der jeweiligen Oberfläche, • konstante - und - Werte über der gesamten Fläche. Der Temperaturverlauf für verschiedene Materialpaarungen ist in Abbildung 16 dargestellt. Der unterschiedliche Verlauf der Kurven kann mit den verschiedenen eingebrachten Reibleistungen durch sich unterschiedlich einstellende Reibungszahlen und durch die unterschiedlichen Wärmeleitwerte und Wärmekapazitäten der Gleitschienen erklärt werden. Ist eine stationäre Temperatur erreicht, so gilt vereinfacht die Vorstellung von Abbildung 15. Abbildung 16: thermischer Einlauf verschiedener Stützschienenmaterialien Die sich einstellende Gleitflächentemperatur ist im Wesentlichen von den in Abbildung 17 dargestellten Einflüssen abhängig. Da die Kontakttemperatur die Grenztemperatur (ca. 65°C) nicht überschreiten darf, um eine thermische Schädigung zu vermeiden, sind die entsprechenden Einflussgrößen zweckmäßig zu wählen. Die Parameter Gleitgeschwindigkeit und Flächenpressung sind meist durch die technologischen Erfordernisse vorgegeben, die Reibungszahl stellt sich entsprechend der tribologischen Paarung ein und die Wärmeleitfähigkeit ist ein kaum zu verändernder Stoffwert. Die Einflussmaßnahmen erstrecken sich also meist auf die Schichtstärke s der Abstützung und den Wärmeübergang zur Umgebung. Abbildung 17: Technologische und konstruktive Einflüsse auf die Gleitflächentemperatur in der Wirkstelle 4. Zusammenfassung Die Kenntnis der sich nach einer entsprechenden Einlaufphase einstellenden Reibungszahlen für verschiedene Zahnriemen – Stützschienenkombinationen ist für die Anwender und Entwickler wichtig, da damit eine optimale Auslegung von Zahnriemenförderern erfolgen kann. Diese optimale Auslegung realisiert dann in der Anwendung eine ökonomische Lebensdauer bei verbesserter konstruktiver Auslegung. Die bisher weitgehend unbeachtete Temperaturerhöhung in der Gleitschienen – Zahnriemenkombination durch die eingebrachte Reibleistung sollte zukünftig ein weiteres Auslegungskriterium darstellen. Eine erste Annäherung an dieses Problem kann durch die Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche K Wärmeabgabekoeffizient DT max. zul. Temperaturerhöhung K= f (µ, p, v, Gleitschienenmaterial, Zahnriemenausführung, Maschinenkonstante…) gezeigt werden. Für die Ermittlung des Wärmeabgabekoeffizienten sind entsprechende Untersuchungen durchzuführen und Zusammenhänge zu ermitteln. Bestimmte Praxiseinflüsse (Umgebungstemperaturschwankungen, Verschmutzung, Stöße, Montagefehler) sind in die bisherigen Untersuchungen noch nicht eingeflossen, sollten aber nicht unbeachtet bleiben. Durch eine vorteilhafte Auslegung der Förderanlagen kann eine höhere Zuverlässigkeit bei geringeren Wechselintervallen und niedrigeren Kosten für den Betrieb erreicht werden.
Resumo:
Radio Frequency Identification (RFID) beeinflusst unbestritten zahlreiche Anwendungsgebiete und schafft die Grundlage für die zukünftige Entwicklung logistischer Systeme. Von besonderer Bedeutung ist in diesem Zusammenhang die systematische Identifikation von Einsatzpotenzialen für diese Technologie. Bislang existiert hierfür noch keine allgemein verbreitete Methodik. Diese Problematik greift der folgende Beitrag auf und zeigt, wie aus den technischen Grundlagen und analysierten Praxisanwendungen Identifikationskriterien abgeleitet werden können. Die so erarbeiteten Kriterien werden in ihrer Anwendung anhand eines fiktiven Beispiels erläutert und damit exemplarisch eine mögliche Analysemethodik vorgestellt. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. 1. Einleitung Eine umfassende Prozessanalyse ist die Grundlage einer jeden erfolgreichen RFID-Anwendung [o.Verf. 2006]. Die Merkmale, die bei einer solchen Untersuchung zu beachten sind, werden allerdings nicht öffentlich diskutiert. Wie Resch in seinem Ansatz zeigt, ist aber gerade die Analysephase von entscheidender Bedeutung für den späteren Erfolg einer RFID-Anwendung (vgl. Abb. 1). Abbildung 1: Fehlende Methodiken der Prozessanalyse [Resch2005] In dieser Phase besteht der größte Gestaltungsfreiraum für die spätere Umsetzung. Da in dieser Phase das größte Optimierungspotenzial einer RFID-Anwendung festgelegt wird, entscheidet sich bereits zu Beginn eines Projektes wie groß der maximal erreichbare Nutzen einer Lösung sein kann. Bisher existieren keine allgemein verbreiteten Methoden und Kriterien zur Identifikation dieser Einsatz-/Nutzenpotenziale. Die Prozessanalyse ist die Basis zukünftiger RFID-Anwendungen und ist daher entsprechend umfangreich durch zu führen. RFID-Einsatzpotenziale werden aktuell nur in Funktionsbereichen kommuniziert. Diese Pauschalisierung engt die Sicht auf potenzielle Anwendungen allerdings sehr stark ein. Dadurch besteht die Gefahr, dass die vorhandenen Nutzenpotenziale indirekt beteiligter Prozesse nicht beachtet werden. Es ist daher zwingend notwendig möglichst alle material- und informationsflussbezogenen Prozesse auf ein RFID-Einsatzpotenzial hin zu untersuchen. D.h. sowohl die Prozesse mit direktem Materialflussbezug (bspw. Wareneingang) als auch die Prozesse, die nur indirekt, über den Informationsfluss, mit dem Materialfluss verknüpft sind (bspw. Disposition). Der vorliegende Beitrag stellt daher einen ersten Ansatz für die Ermittlung allgemeingültiger Analysekriterien für RFID-Einsatzpotenziale. Die vorgestellte Methodik und der daraus entwickelte Kriterienkatalog sollen es ermöglichen, RFID-Anwendungen in der Analysephase auf ein möglichst vollständiges Nutzengerüst zu stellen und so den maximalen Nutzen einer Anwendung systematisch zu ermitteln. 2. Identifikationskriterien 2.1. Methodik Basierend auf der Überlegung die Kriterien sowohl theoretisch als auch auf Basis von Praxiserfahrungen zu entwickeln, dienen neben der Betrachtung technischer Grundlagen auch Analysen von realisierten Anwendungen und Pilotprojekten als Basis der Kriterienentwicklung. Abbildung 2 zeigt die grundsätzliche Methodik hinter der Entwicklung der Kriterien. Dabei zeigt sich, dass aus dem gewählten Ansatz zwangsläufig zwei differierende Typen von Kriterien entwickelt werden müssen. Technische Kriterien, aus den Grundlagen der RFID beziehen sich vor allem auf das vorherrschende Prozessumfeld. Frequenzspezifische Eigenschaften (Leistungsdaten) und allgemeine, also frequenzübergreifende Eigenschaften der RFID-Technik bilden die Ausgangsbasis für diese Kriteriengruppe. Dabei werden diese technologischen Eigenschaften in Prozessmerkmale überführt, anhand derer im konkreten Prozessumfeld eine Technologieauswahl durchgeführt werden kann. So können potenzielle RFID-Anwendungen auf eine prinzipielle Anwendbarkeit hin überprüft werden. Abbildung. 2: Vorgehen zur Entwicklung der Identifikationskriterien [Resch2005] Die zweite Gruppe der Kriterien, die organisatorischen Kriterien, werden aus Praxiserfahrungen abgeleitet. Basis dieser Analyse sind Prozesse aus realisierten Anwendungen und Pilotprojekten. Dieser praxisbasierte Teil stellt prozessbezogene Merkmale zusammen, deren Schwerpunkt auf prozessspezifischen organisatorischen Merkmalen, bspw. Durchsatz, oder auch Dokumentationsaufwand liegt. Die ausgewählten Praxisbeispiele sind nach ihren individuellen Prozessmerkmalen analysiert worden. Die Ergebnisse wurden stichpunktartig zusammengefasst, in übergeordnete Kategorien gruppiert und abschließend nach ihrem Flussbezug gegliedert. RFID-Anwendungen beeinflussen sowohl materialflussbezogene Prozesse, als auch direkt oder auch indirekt verknüpfte informationsflussbezogene Prozesse. Daher erfolgt eine Ordnung der identifizierten Kriteriengruppen nach ihrem Flussbezug, um so einem Anwender die Betrachtungsweise nachhaltig zu verdeutlichen und die Analyse zu vereinfachen. 2.2. Praxisbeispiele Die analysierten Praxisbeispiele sind zum Großteil in der Automobilindustrie realisiert (vgl. Abb. 3). Die weiteren Anwendungen sind aus der Instandhaltung sicherheitsrelevanter technischer Gebäudeausrüstung, aus einem Hochregallager eines Logistikdienstleisters sowie aus der Luftfahrtindustrie. Abbildung 3: Branchenspezifische Verteilung der Praxisbeispiele Die Auswahl der Praxisbeispiele ist bewusst auf die Automobilindustrie fokussiert. Dieser Industriezweig hat in Deutschland bereits einige Anwendungen und eine Vielzahl an Pilotprojekten initiiert. Die Bandbreite der realisierten Projekte ist sehr groß und deckt daher viele verschiedene Anwendungsfälle ab. Die Ergebnisse der Untersuchung sind aber auch auf andere Branchen übertragbar, da die untersuchten Praxisprojekte Situationen abbilden, die ebenfalls leicht zu übertragen sind. Die analysierten Anwendungen bilden ein sehr breites Feld an Einsatzszenarien ab. Anwendungen mit massenhaften Stückzahlen sind ebenso vertreten, wie Anwendungen mit hohem Spezialisierungscharakter. Die Anwendungen reichen dabei von einfachen Pilotprojekten im Ladungsträgermanagement, bis hin zu komplexen Anwendungen im Bereich der Produktionssteuerung und der unternehmensübergreifenden Koordination von Materialflüssen. Insgesamt verteilen sich die analysierten Anwendungen auf drei Schwerpunktbereiche. Abbildung 4 stellt die Anwendungsbereiche in einer Übersicht zusammen. Abbildung 4: Übersicht der Anwendungsgebiete aus den Praxisanwendungen Anwendungen aus den Bereichen der Produktionssteuerung und des Materialflusses sind dabei am häufigsten vertreten. Während die Anwendungen aus dem Bereich der Instandhaltung, bzw. dem Qualitätsmanagement, meist mit der Hauptanwendung aus dem Bereich der Produktionssteuerung verknüpft sind. So wird bspw. die Dokumentationen der einzelnen Fertigungsstationen i.d.R. sowohl zur Fertigungssteuerung als auch zur Qualitätssicherung genutzt. 2.3. Ergebnisse der Praxisanalyse Die Analyse der Praxisanwendungen brachte in einem ersten Schritt eine Fülle an spezifischen Merkmalen zusammen. Jeder analysierte Prozess wies seine eigenen Merkmale auf, die aber dem Grundsatz nach systematisiert werden konnten. Die so erarbeiteten Merkmale wurden in einem zweiten Schritt gruppiert. Insgesamt ergaben sich fünf Gruppen, die jeweils nach einer, durch die RFID-Technik durchgeführte Funktion benannt sind. Um eine Prozessanalyse mit Hilfe der Kriterien zu erleichtern, ist jede Gruppe ihrem übergeordneten Flusssystem zugeordnet worden. Nachstehende Abbildung 5 zeigt die einzelnen Gruppierungen mit ihrem jeweiligen Flussbezug. Dabei sind jeder Gruppe beispielhafte Merkmale zugeordnet. Abbildung 5: Organisatorische Kriterien zur Identifikation von RFID-Einsatzpotenzialen Die vorliegende Systematisierung von Identifikationskriterien deckt sowohl Aspekte des reinen Materialflusses, als auch die Aspekte der zugehörigen Informationsflüsse ab. Dabei verhält sich der Flussbezug in jeder Kriteriengruppe unterschiedlich. Die Kriterien der Gruppe Identifikation befassen sich ausschließlich mit dem Identifikationsvorgang. Dabei können die erarbeiteten Kriterien in zwei Arten unterschieden werden, quantitative und qualitative Kriterien. Qualitativ messbar sind Kriterien, die sich auf die Anzahl der Identifikationsvorgänge beziehen. Bspw. die Anzahl der Identifikationsvorgänge im betrachteten Prozessverlauf, bezogen auf ein Identifikationsobjekt oder die Anzahl der Identifikationsvorgänge pro Zeiteinheit an einem Identifikationspunkt innerhalb des Prozessverlaufs. Gleichzeitig umfasst diese Gruppe aber auch Kriterien, die nur qualitativ zu bewerten sind. Kriterien wie die Bedeutung einer exakten Identifikation einzelner Teile im Prozess oder auch der aktuelle Aufwand der Identifikation im Prozess lassen sich nur bedingt oder nicht quantifizieren. Diese Kriteriengruppe fokussiert mit ihren Merkmalen vor allem den Materialfluss. Die einzelnen Merkmale beziehen sich auf den tatsächlichen Identifikationsvorgang und nicht auf die zugehörigen Informationsflüsse. Unter dem Begriff Transparenz sind Kriterien gruppiert, die sich mit der Verfolgbarkeit und Übersichtlichkeit von Prozessen befassen. Dabei gilt es sowohl die Bedeutung für den aktuellen Prozess als auch für die abhängigen Prozesse zu ermitteln. Transparenz bzw. die fehlende Transparenz ist der Kern dieser Kriteriengruppe. Qualitative Kriterien sind in dieser Kategorie besonders stark vertreten, da vor allem die Bedeutung bestimmter Aspekte der Prozesstransparenz als Kriterium dient. Prozesstransparenz liegt i.d.R. nicht vor oder wird nur über komplexe Systeme erreicht. Die Bewertung dieser Kriteriengruppe ist höchst variabel, da Prozesstransparenz in ihrer Bedeutung höchst individuell ist, d.h. von Prozess zu Prozess stark variiert. Die Gruppe Konfiguration fasst Merkmale zusammen, die auf objektspezifische Anpassungsarbeiten im Prozessverlauf hinweisen. Diese Tätigkeiten sind i.d.R. mit einem quantifizierbaren Aufwand verbunden und können so leicht erfasst werden. Die RFID-Technologie eröffnet hier, ähnlich wie im Bereich der Identifikation, Chancen zur Automatisierung bestehender Prozesse. Die Kriterien konzentrieren sich in ihrer Zielrichtung daher schwerpunktmäßig auf die Untersuchung von Potenzialen hinsichtlich der Automation von Konfigurationsvorgängen. Ähnlich wie die vorstehende Gruppe der Transparenz, besitzt diese Gruppe ebenfalls einen starken Bezug zu beiden Flusssystemen. In beiden Gruppen liegt der Fokus der betrachteten Merkmale sowohl auf dem Materialfluss und den physischen Aktionen als auch auf den zugehörigen Informationsflüssen mit entsprechenden Tätigkeiten. Die vierte Gruppe Zuordnung enthält primär Merkmale, die sich auf den Informationsfluss beziehen. Im Vordergrund steht die Art und Weise in der innerhalb eines Prozesses Materialflüsse zwischen Quelle und Senke koordiniert werden. Diese Gruppe enthält ebenfalls sowohl qualitativ als auch quantitativ zu bewertenden Merkmale. RFID-Technik kann hier zu einer deutlichen Komplexitätsreduktion, einer Automation sowie der Reduktion von Stillstands- u. Wartezeiten führen. Die letzte Gruppe Datenverwendung und Dokumentation befasst sich beinahe ausschließlich mit Aspekten des Informationsflusses. Als beinahe Komplementär zur Gruppe der Identifikation stehen hier die informationsflussbezogenen Handlungen, ausgelöst durch einen zugehörigen Materialfluss in der Betrachtung. Dabei stehen vor allem Fehlerraten, manuelle Aufwende der Datenverarbeitung und die Anzahl an Medienbrüchen im Informationsfluss im Vordergrund. Auch hier existiert wiederum ein Geflecht aus qualitativen und quantitativen Kriterien, deren Bewertung individuell durchzuführen ist. 2.4. Technische Kriterien Ergänzt werden die organisatorischen Kriterien um die technischen Kriterien. Diese Kriterien leiten sich aus den technischen Grundlagen der RFID-Technik ab. Diese Grundlagen sind zum einen die Eigenschaft der kontakt- und sichtlosen Übertragung von Energie und Daten, zum anderen der physische Aufbau der Komponenten eines RFID-Systems, dem Reader und dem Transponder. Des Weiteren definieren die frequenzspezifischen Eigenschaften der verschiedenen RFID-Systeme unterschiedliche Leistungsparameter, aus denen technische Kriterien abgeleitet werden können. Daraus ergibt sich die logische Trennung in frequenzabhängige und frequenzunabhängige Kriterien. Auszüge dieser Kriterien zeigt nachstehende Abbildung 6 Abbildung 6: Technische Kriterien Die technischen Kriterien dienen eher zur Technologieauswahl, als zu einer reinen Potenzialidentifikation, da ausschließlich limitierende Aspekte der Technologie betrachtet werden. Einflüsse, bedingt durch die genutzte technische Ausrüstung (bspw. metallische Lagertechnik) oder verfahrensbedingte Einflüsse (elektromagnetische Felder, Schweißroboter, o.ä.), werden über diese Kriterien abgebildet und finden so Berücksichtigung in den zu entwickelnden RFID-Szenarien. Die Wirkung dieser Kriterien hängt stark von dem jeweiligen Stand der Technik ab. Galt bspw. der Einsatz von 13,56 MHz Transpondern direkt auf Metall vor fünf Jahren noch als nicht möglich, so ist die Technik mittlerweile so weit entwickelt, dass auch Lösungen in diesem Bereich angeboten werden. Daher muss festgehalten werden, dass die frequenzabhängigen technischen Kriterien im Zeitverlauf variabel in ihrer Wirkung sind und sich mit dem technischen Fortschritt der RFID-Hardware verändern. Atmosphärische Einflüsse auf die RFID-Hardware sind generell für alle Varianten (unabhängig von der Betriebsfrequenz) der RFID-Technik zu beachten. Der Einfluss der Umgebungsbedingungen auf die Integrität der Hardware ist immer zu berücksichtigen. Temperatur, Druck und Staubbelastung sind hier die Hauptgruppen äußerer Einflüsse auf die RFID-Hardware. Auch diese Gruppe der technischen Kriterien muss mit der sich verändernden technischen Leistungsfähigkeit in ihrer Bewertung angepasst werden. 3. Anwendung der Kriterien 3.1. Anwendungsbeispiel Die Anwendung der Kriterien wird im Folgendem anhand eines kurzen Beispiels erläutert. Nachstehende Abbildung 7 zeigt Ausschnitte aus einem fiktiven Prozess innerhalb eines Großlagers. Abbildung 7: Fiktiver Prozess Von der Entladung des LKW bis zur Einlagerung der Paletten ist der Prozess in vier grobe Phasen strukturiert. Zur Identifikation von RFID-Einsatzpotenzialen werden die einzelnen Prozesselemente nach dem in Tabelle 1dargestellten Schema untersucht. Tabelle 1: Exemplarische Anwendung der Kriterien an einem ausgewählten Beispiel Kriteriengruppe Kriterium Einheit Prozesselement Entladen des LKW Bezugsobjekt LKW Palette Identifikation Anzahl ID - Vorgänge pro Objekt 1/Stck. 2 1 Anzahl ID - Objekte im Zeitraum Stck./ZE 25/h 10/min Transparenz Bedeutung exakter Prozesszeiterfassung Qual. Hoch Hoch intransparente Prozessabschnitte ja/nein Ja Ja Konfiguration Anzahl objektspez. Konfigurationsarbeiten 1/Stck. 0 0 Manueller Anteil der Konfiguration Qual. - - Zuordnung Fehleranteil der Zuordnung Q/S Qual. Mittel Gering Komplexität der Zuordnung Q/S Qual. Hoch Hoch Datenverwendung und Dokumentation Anzahl der Änderungen objektspezifischer Daten im Prozess 1/Stck. 8 (6-7) 2 Anzahl der Medienbrüche im Prozess 1/Stck. - - Die Tabelle zeigt, wie einzelne Prozesselemente mit Hilfe der Identifikationskriterien analysiert werden können. Dabei ergeben sich aus den Ausprägungen der einzelnen Kriterien die Nutzenpotenziale auf deren Basis sich eine spätere RFID-Anwendung gestalten und bewerten lässt. Für die Analyse der einzelnen Prozesselemente ist es notwendig, die Kriterien auf ein Bezugsobjekt zu beziehen. Dieses Bezugsobjekt stellt den potenziellen Träger des Transponders dar. Dabei ist zu beachten, dass innerhalb eines Prozesses mehrere Bezugsobjekte vorhanden sein können. Die Analyse muss daher für jedes Bezugsobjekt einzeln durchgeführt werden. Die Zusammenfassung der Analyseergebnisse pro Bezugsobjekt, über die zusammengehörigen Prozesselemente zeigt die Nutzenpotenziale innerhalb der einzelnen Prozesse. 3.2. Verwendung der Ergebnisse und Bewertungsmöglichkeiten identifizierter Einsatzpotenziale Im vorstehenden Absatz wurde gezeigt, wie die erarbeiteten Kriterien zur Prozessanalyse genutzt werden können. Aus der Analyse ergeben sich Nutzenpotenziale für den RFID-Einsatz. Inwieweit diese erkannten Potenziale tatsächlich zu einer wirtschaftlichen RFID-Anwendung führen, muss in einem zweiten Schritt geprüft werden. Dabei muss festgestellt werden, dass es keine RFID-Lösung „von der Stange“ gibt [Lammers2006]. Jede Anwendung muss individuell auf Wirtschaftlichkeit geprüft werden. Dabei spielen vor allem die Kriterien eine starke Rolle, die nur qualitativ erfasst werden können, z. B. die Bedeutung einer exakten Erfassung der Prozesszeit. Quantitativ erfassbare Kriterien sind vergleichsweise einfach in der wirtschaftlichen Beurteilung, obwohl auch für diese Art Kriterium keine allgemein gültigen Richtwerte zur Beurteilung existieren. Zu groß sind hier die Unterschiede zwischen einzelnen Prozessen und den möglichen Einspareffekten, bedingt durch differierende Kostentreiber und Anforderungen an Leistungsfähigkeiten. Weiterhin müssen sowohl qualitative als auch quantitative Kriterien immer im Zusammenhang gesehen werden. Nur dann kann der potenzielle Nutzen einer RFID-Anwendung vollständig ermittelt werden. Erst aus der Kombination dieser beiden Faktorgruppen ergibt sich das maximale Nutzenpotenzial einer RFID-Anwendung. Vor diesem Hintergrund sind die einzelnen Nutzenpotenziale zu erfassen, daraus mögliche RFID-Szenarien zu entwickeln und diese Szenarien einer abschließenden, detaillierten Wirtschaftlichkeitsanalyse zu unterziehen.