161 resultados para Vorteile
Resumo:
Kalorimetrische Tieftemperatur-Detektoren (Calorimetric Low Temperature Detectors, CLTDs) wurden erstmals in Messungen zur Bestimmung des spezifischen Energieverlustes (dE/dx) niederenergetischer Schwerionen beim Durchgang durch Materie eingesetzt. Die Messungen wurden im Energiebereich unterhalb des Bragg-Peaks, mit 0.1 - 1.4 MeV/u 238U-Ionen in Kohlenstoff und Gold sowie mit 0.05 - 1.0 MeV/u 131Xe-Ionen in Kohlenstoff, Nickel und Gold, durchgeführt. Die Kombination der CLTDs mit einem Flugzeitdetektor ermöglichte dabei, kontinuierliche dE/dx-Kurven über größere Energiebereiche hinweg simultan zu bestimmen. Im Vergleich zu herkömmlichen Meßsystemen, die Ionisationsdetektoren zur Energiemessung verwenden, erlaubten die höhere Energieauflösung und -linearität der CLTDs eine Verringerung der Kalibrierungsfehler sowie eine Erweiterung des zugänglichen Energiebereiches der dE/dx-Messungen in Richtung niedriger Energien. Die gewonnen Daten können zur Anpassung theoretischer und semi-empirischer Modelle und somit zu einer Erhöhung der Präzision bei der Vorhersage spezifischer Energieverluste schwerer Ionen beitragen. Neben der experimentellen Bestimmung neuer Daten wurden das alternative Detektionsprinzip der CLTDs, die Vorteile dieser Detektoren bezüglich Energieauflösung und -linearität sowie der modulare Aufbau des CLTD-Arrays aus mehreren Einzeldetektoren genutzt, um diese Art von Messung auf potentielle systematische Unsicherheiten zu untersuchen. Unter anderem wurden hierbei unerwartete Channeling-Effekte beim Durchgang der Ionen durch dünne polykristalline Absorberfolien beobachtet. Die koinzidenten Energie- und Flugzeitmessungen (E-ToF) wurden weiterhin genutzt, um das Auflösungsvermögen des Detektor-Systems bei der direkten in-flight Massenbestimmung langsamer und sehr schwerer Ionen zu bestimmen. Durch die exzellente Energieauflösung der CLTDs konnten hierbei Massenauflösungen von Delta-m(FWHM) = 1.3 - 2.5 u für 0.1 - 0.6 MeV/u 238U-Ionen erreicht werden. In einer E-ToF-Messung mit Ionisationsdetektoren sind solche Werte in diesem Energie- und Massenbereich aufgrund der Limitierung der Energieauflösung durch statistische Schwankungen von Verlustprozessen beim Teilchennachweis nicht erreichbar.
Resumo:
Klinische Studien haben gezeigt, dass die allergenspezifische Immuntherapie (SIT) eine effektive Therapieoption für allergische Erkrankungen ist. Obwohl dieses Therapieverfahren seit über 100 Jahren existiert, sind die zugrunde liegenden Suppressionsmechanismen jedoch nicht vollständig verstanden. Bisher wird angenommen, dass der Behandlungserfolg der SIT auf einer Blockade durch allergenspezifische Antikörper, einer Verschiebung des Th1-Th2-Gleichgewichtes und/oder auf einer Suppression durch regulatorische T-Zellen (Tregs) basiert. Um die Effekte der SIT in einer chronischen Erkrankung in vivo untersuchen zu können, wurde in dieser Doktorarbeit ein Mausmodell für chronisches Asthma entwickelt, das die Situation im Menschen nach einer SIT nachahmt. rnDurch eine SIT war es möglich, allergeninduzierte Asthmasymptome wie Atemwegshyperreagibilität (AHR), Eosinophilie in der Lunge, IgE-Produktion und Atemwegsentzündung im Modell zu unterdrücken. Bemerkenswert ist, dass durch OVA-spezifische Immuntherapie (OVA-IT) ebenfalls eine Verringerung der strukturellen Veränderungen im Lungengewebe im chronischen Krankheitsverlauf erreicht wurde.rnDes Weiteren wurde in diesem Modell nach den Prozessen gesucht, die für die toleranzinduzierende Wirkung der SIT verantwortlich sein können. Dabei wurde im Vergleich zur Placebo-behandelten Gruppe eine erhöhte Antwort spezifischer IgG1-Antikörper, eine verstärkte Th1-Antwort, sowie eine erhöhte Frequenz von FoxP3+ Tregs und von IL-10-produzierenden T-Zellen (Tr1-Zellen) nach OVA-IT festge-stellt. Zur weiteren Untersuchung der von SIT-induzierten T-Zellantworten wurden Mausmodelle des allergischen Asthmas mit einem akuten Verlauf gewählt.rnDie Bedeutung der Th1-Zellen für die SIT wurde in T-bet-/- Mäusen untersucht, welche aufgrund des Fehlens des Transkriptionsfaktors T-bet keine stabile Th1-Antwort induzieren können. Durch SIT war es möglich, allergeninduzierte Asthmasymptome wie AHR, eosinophile Granulozyten in der Lunge, IgE-Produktion und Atemwegsentzündung in den T-bet-/- Tieren im gleichen Maße wie in den Wildtyptieren zu unterdrücken. Diese Untersuchung zeigte, dass die SIT auch ohne funktionelle Th1-Zellen die allergische Entzündung unterdrücken kann. rnDie Rolle der Tregs für die SIT wurde in DO11.10 Mäusen und DO11.10 RAG-/- Mäusen untersucht. In beiden Stämmen konnte nach SIT eine Induktion OVA-spezifischer Tregs nachgewiesen werden. In DO11.10 RAG-/- Mäusen können durch den Knockout im rag2-Gen keine natürlichen, d.h. im Thymus gereiften, Tregs entstehen. Im Blut von DO11.10 RAG-/- Mäusen war direkt nach Durchführung der OVA-IT eine FoxP3+ Treg-Population detektierbar. Demnach wird durch die OVA-IT eine de-novo-Induktion von FoxP3+ Tregs in Gang gesetzt. In Abwesenheit der natürlichen Tregs zeigte sich weiterhin, dass diese Zellen zur Produktion von IL-10 in T-Zellen und somit zum Erfolg der SIT beitragen.rnDie Rolle der FoxP3+ Tregs bei der SIT wurde in DEREG Mäusen untersucht. Eine Depletion der FoxP3+ Tregs in DEREG Mäusen während der Durchführung der OVA-IT hob die protektiven Effekte der Therapie jedoch nur teilweise auf. rnUm die Rolle des regulatorischen Zytokins IL-10 bei der SIT zu untersuchen, wurde ein blockierender Antikörper gegen den IL-10-Rezeptor (anti-IL-10R) im chronischen Modell des allergischen Asthmas mit SIT angewendet. Anti-IL-10R hob die protektive Wirkung der SIT auf die AHR, die Atemwegsentzündung und die strukturellen Veränderungen im Lungengewebe auf. Somit ist die protektive Wirkung der SIT abhängig vom IL-10-Signalweg.rnZusammenfassend stellt diese Arbeit die Bedeutung der SIT für allergische Erkrankungen heraus. SIT kann durch die positive Beeinflussung der allergiebedingten, strukturellen Veränderungen in der Lunge auch für Asthmapatienten große Vorteile bringen. Die aus Studien bekannten Mechanismen konnten im Modell bestätigt werden und wurden im weiteren Verlauf untersucht. Die Arbeit stellt im Besonderen die Bedeutung der IL-10-produzierenden und FoxP3+ Tregs für die Effektivität der SIT in den Vordergrund. Zudem ist durch die Etablierung eines neuen Mausmodells der SIT für chronisches allergisches Asthma ein Mittel zur weiteren Erforschung der zugrunde liegenden Prozesse dieser erfolgreichen Therapie geschaffen worden. rn
Resumo:
Patienten, die an Osteosarkom leiden werden derzeit mit intravenös applizierten krebstherapeutischen Mitteln nach Tumorresektion behandelt, was oftmals mit schweren Nebenwirkungen und einem verzögerten Knochenheilungsprozess einhergeht. Darüber hinaus treten vermehrt Rezidive aufgrund von verbleibenden neoplastischen Zellen an der Tumorresektionsstelle auf. Erfolgreiche Knochenregeneration und die Kontrolle von den im Gewebe verbleibenden Krebszellen stellt eine Herausforderung für das Tissue Engineering nach Knochenverlust durch Tumorentfernung dar. In dieser Hinsicht scheint der Einsatz von Hydroxyapatit als Knochenersatzmaterial in Kombination mit Cyclodextrin als Medikamententräger, vielversprechend. Chemotherapeutika können an Biomaterial gebunden und direkt am Tumorbett über einen längeren Zeitraum freigesetzt werden, um verbliebene neoplastische Zellen zu eliminieren. Lokal applizierte Chemotherapie hat diverse Vorteile, einschließlich der direkten zytotoxischen Auswirkung auf lokale Zellen, sowie die Reduzierung schwerer Nebenwirkungen. Diese Studie wurde durchgeführt, um die Funktionsfähigkeit eines solchen Arzneimittelabgabesystems zu bewerten und um Strategien im Bereich des Tissue Engineerings zu entwickeln, die den Knochenheilungsprozess und im speziellen die Vaskularisierung fördern sollen. Die Ergebnisse zeigen, dass nicht nur Krebszellen von der chemotherapeutischen Behandlung betroffen sind. Primäre Endothelzellen wie zum Beispiel HUVEC zeigten eine hohe Sensibilität Cisplatin und Doxorubicin gegenüber. Beide Medikamente lösten in HUVEC ein tumor-unterdrückendes Signal durch die Hochregulation von p53 und p21 aus. Zudem scheint Hypoxie einen krebstherapeutischen Einfluss zu haben, da die Behandlung sensitiver HUVEC mit Hypoxie die Zellen vor Zytotoxizität schützte. Der chemo-protektive Effekt schien deutlich weniger auf Krebszelllinien zu wirken. Diese Resultate könnten eine mögliche chemotherapeutische Strategie darstellen, um den Effekt eines zielgerichteten Medikamenteneinsatzes auf Krebszellen zu verbessern unter gleichzeitiger Schonung gesunder Zellen. Eine erfolgreiche Integration eines Systems, das Arzneimittel abgibt, kombiniert mit einem Biomaterial zur Stabilisierung und Regeneration, könnte gesunden Endothelzellen die Möglichkeit bieten zu proliferieren und Blutgefäße zu bilden, während verbleibende Krebszellen eliminiert werden. Da der Prozess der Knochengeweberemodellierung mit einer starken Beeinträchtigung der Lebensqualität des Patienten einhergeht, ist die Beschleunigung des postoperativen Heilungsprozesses eines der Ziele des Tissue Engineerings. Die Bildung von Blutgefäßen ist unabdingbar für eine erfolgreiche Integration eines Knochentransplantats in das Gewebe. Daher ist ein umfangreich ausgebildetes Blutgefäßsystem für einen verbesserten Heilungsprozess während der klinischen Anwendung wünschenswert. Frühere Experimente zeigen, dass sich die Anwendung von Ko-Kulturen aus humanen primären Osteoblasten (pOB) und humanen outgrowth endothelial cells (OEC) im Hinblick auf die Bildung stabiler gefäßähnlicher Strukturen in vitro, die auch effizient in das mikrovaskuläre System in vivo integriert werden konnten, als erfolgreich erweisen. Dieser Ansatz könnte genutzt werden, um prä-vaskularisierte Konstrukte herzustellen, die den Knochenheilungsprozess nach der Implantation fördern. Zusätzlich repräsentiert das Ko-Kultursystem ein exzellentes in vitro Model, um Faktoren, welche stark in den Prozess der Knochenheilung und Angiogenese eingebunden sind, zu identifizieren und zu analysieren. Es ist bekannt, dass Makrophagen eine maßgebliche Rolle in der inflammatorisch-induzierten Angiogenese spielen. In diesem Zusammenhang hebt diese Studie den positiven Einfluss THP-1 abgeleiteter Makrophagen in Ko-Kultur mit pOB und OEC hervor. Die Ergebnisse zeigten, dass die Anwendung von Makrophagen als inflammatorischer Stimulus im bereits etablierten Ko-Kultursystem zu einer pro-angiogenen Aktivierung der OEC führte, was in einer signifikant erhöhten Bildung blutgefäßähnlicher Strukturen in vitro resultierte. Außerdem zeigte die Analyse von Faktoren, die in der durch Entzündung hervorgerufenen Angiogenese eine wichtige Rolle spielen, eine deutliche Hochregulation von VEGF, inflammatorischer Zytokine und Adhäsionsmoleküle, die letztlich zu einer verstärkten Vaskularisierung beitragen. Diese Resultate werden dem Einfluss von Makrophagen zugeschrieben und könnten zukünftig im Tissue Engineering eingesetzt werden, um den Heilungsprozess zu beschleunigen und damit die klinische Situation von Patienten zu verbessern. Darüber hinaus könnte die Kombination der auf Ko-Kulturen basierenden Ansätze für das Knochen Tissue Engineering mit einem biomaterial-basierenden Arzneimittelabgabesystem zum klinischen Einsatz kommen, der die Eliminierung verbliebener Krebszellen mit der Förderung der Knochenregeneration verbindet.
Resumo:
The goal of this thesis is the acceleration of numerical calculations of QCD observables, both at leading order and next–to–leading order in the coupling constant. In particular, the optimization of helicity and spin summation in the context of VEGAS Monte Carlo algorithms is investigated. In the literature, two such methods are mentioned but without detailed analyses. Only one of these methods can be used at next–to–leading order. This work presents a total of five different methods that replace the helicity sums with a Monte Carlo integration. This integration can be combined with the existing phase space integral, in the hope that this causes less overhead than the complete summation. For three of these methods, an extension to existing subtraction terms is developed which is required to enable next–to–leading order calculations. All methods are analyzed with respect to efficiency, accuracy, and ease of implementation before they are compared with each other. In this process, one method shows clear advantages in relation to all others.
Resumo:
Polymer-Therapeutika spielen im Bereich der Arzneimittelforschung eine immerrngrößere Rolle. Benötigt werden dafür Trägersysteme für die gewünschten Wirkstoffe.rnDurch den Einsatz von wasserlöslichen biokompatiblen Polymeren werden mehrerernentscheidende Vorteile erhalten. Beispielsweise verlängert sich durch die höherernMolmasse die Zirkulationszeit im Blutkreislauf. Zudem ermöglicht die Anbindung vonrnTargetmolekülen den gezielten Wirkstofftransport zum Zielort.rnDie vorliegende Arbeit behandelt die Synthese und Charakterisierung von polymerbasiertenrnTrägersystemen für biomedizinische Anwendungen.rnAls erstes Teilprojekt wurde die Synthese einer Polymerbürste gewählt, derenrnSeitenketten aus Polymer-Oligonucleotid (ODN)-Konjugaten bestehen. Als Polymerrnwurde Poly(N-Isopropylacrylamid) gewählt, welches per RAFT-Polymerisationrnsynthetisiert wurde. Die Bürste sollte mittels „Grafting Through“-Technik hergestelltrnwerden. Dafür wurden zuerst das Polymer-Oligonucleotid-Konjugat und darausrnanschließend das entsprechende Makromonomer gebildet. Die Synthese undrnCharakterisierung des Konjugats sowie des Makromonomers wurden erfolgreichrndurchgeführt, jedoch war die Aufreinigung des Makromonomers nicht möglich.rnIm zweiten Teilprojekt war das Ziel Polyion-Komplex-Mizellen als Trägersystemernherzustellen. Benötigt wurden dazu ein Polymer bestehend aus einem kationischenrnund einem biokompatiblen Block sowie eine ODN-Sequenz zur Komplexierung desrnkationischen Blocks. Im ersten Ansatz wurde als Polymerisationsmethode die RAFTPolymerisationrnund Mono-N-boc-1,3-diaminopropanmethylmethacrylat als kationischesrnMonomer sowie α- bzw. ε-Lysinmethylmethacrylat als zwitterionischesrnMonomer verwendet. Jedoch war die Herstellung der Blockcopolymere nicht möglich.rnIm zweiten Ansatz wurde deshalb Poly-2-oxazolin als biokompatibler Block gewählt.rnMit Poly-L-lysin als kationischen Block und CpG war eine Bildung und Charakterisierungrnvon Polyion-Komplex-Mizellen in 15mM PBS-Puffer möglich.rnIm dritten Teilprojekt wurden biomedizinisch relevante Verbindungen mittelsrnkupferfreier Clickchemie an eine ELP-Bürste gebunden und charakterisiert.
Resumo:
Diese Dissertation zeigt zum ersten Mal den Ansatz gesättigte und ungesättigte Poly(Phosphorester) herzustellen, deren Polymergerüst und Seitenketten durch präzises Anbring-en von funktionellen und/oder solubilisierenden Gruppen modifiziert werden können. Durch Kombinieren der Vorteile der Olefinmetathese mit der Vielseitigkeit der Phos-phorchemie, eröffnet dieser variable Ansatz den Zugang zu einer neuen Klasse ungesättigter Poly-phosphate. Die zu Grunde liegende Idee ist das maßgeschneiderte Anpassen der Architektur und der Mikrostruktur dieser Polymere. Lineare, verzweigte, markierte und telechele Poly(Phosphorester) können in großem Maßstab mit hohen Funktionalisierungsgrad hergestellt werden.rnEiner der größten Vorteile dieses Ansatzes ist es, das Polymerrückrat modifizieren zu können, was weder bei der Ringöffnungs- noch bei klassischen Polymerisationen möglich ist, bei denen nur eine limitierte Anzahl an Monomeren existieren.rnDie Eigenschaften des Phosphors werden in neue Polymerarchitekturen übertragen, was von Nutzen für flammenhemmenden Materialen und Anwendung bei Gewebetherapeutika ist. Diese Doktorarbeit führt auch einzigartige Poly(Phosphorester) ein, welche im Feld der Op-toelektronik als Sauerstofffänger eingesetzten werden können. Die beschriebenen Synthese-vorschriften können einfach in größeren Maßstab durchgeführt werden und sind vielversprechend für industrielle Anwendungen, da ungesättigte Polyester einen sehr wichtigen Markt repräsentieren.
Resumo:
Atmosphärische Aerosole haben einen starken Einfluss auf das Klima, der bisher nur grundlegend verstanden ist und weiterer Forschung bedarf. Das atmosphärische Verhalten der Aerosolpartikel hängt maßgeblich von ihrer Größe und chemischen Zusammensetzung ab. Durch Reflexion, Absorption und Streuung des Sonnenlichtes verändern sie den Strahlungshaushalt der Erde direkt und durch ihre Einflussnahme auf die Wolkenbildung indirekt. Besonders gealterte, stark oxidierte organische Aerosole mit großem Sauerstoff-zu-Kohlenstoff-Verhältnis wirken als effektive Wolkenkondensationskeime. Neben primären Aerosolpartikeln, die direkt partikelförmig in die Atmosphäre gelangen, spielen sekundäre Aerosolpartikel eine große Rolle, die aus Vorläufergasen in der Atmosphäre entstehen. Aktuelle Forschungsergebnisse legen nahe, dass kurzkettige aliphatische Amine bei Nukleationsprozessen beteiligt sind und somit die Partikelneubildung vielerorts mitsteuern. Um die Rolle von Aminen in der Atmosphäre besser erforschen und industrielle Emissionen kontrollieren zu können, bedarf es einer zuverlässigen Methode zur Echtzeitquantifizierung gasförmiger Amine mit hoher Zeitauflösung und niedriger Nachweisgrenze.rnDas hochauflösende Flugzeit-Aerosolmassenspektrometer (HR-ToF-AMS) bietet die Möglichkeit, atmosphärische Partikel in Echtzeit zu analysieren. Dabei werden Größe, Menge und grundlegende chemische Zusammensetzung erfasst. Anorganische Aerosolbestandteile können eindeutig zugeordnet werden. Es ist jedoch kaum möglich, einzelne organische Verbindungen in den komplizierten Massenspektren atmosphärischer Aerosole zu identifizieren und quantifizieren.rnIn dieser Arbeit wird atmosphärisches Aerosol untersucht, das im Westen Zyperns während der CYPHEX-Kampagne mit einem HR-ToF-AMS gemessen wurde. An diesem Standort ist vor allem stark gealtertes Aerosol vorzufinden, das aus Zentral- und Westeuropa stammt. Lokale Einflüsse spielen fast keine Rolle. Es wurde eine durchschnittliche Massenkonzentration von 10,98 μg/m3 gefunden, zusammengesetzt aus 57 % Sulfat, 30 % organischen Bestandteilen, 12 % Ammonium, < 1 % Nitrat und < 1 % Chlorid, bezogen auf das Gewicht. Der Median des vakuum-aerodynamischen Durchmessers betrug 446,25 nm. Es wurde sehr acides Aerosol gefunden, dessen anorganische Bestandteile weitgehend der Zusammensetzung von Ammoniumhydrogensulfat entsprachen. Tag-Nacht-Schwankungen in der Zusammensetzung wurden beobachtet. Die Sulfatkonzentration und die Acidität zeigten tagsüber Maxima und nachts Minima. Konzentrationsschwankungen an Nitrat und Chlorid zeigten einen weniger ausgeprägten Rhythmus, Maxima fallen aber immer mit Minima der Sulfatkonzentration, Aerosolacidität und Umgebungstemperatur zusammen. Organische Aerosolbestandteile entsprachen stark gealtertem, schwerflüchtigem oxidiertem organischem Aerosol. Es wurde eine interne Mischung der Partikel beobachtet, die ebenfalls meist bei alten Aerosolen auftritt.rnUm mit dem HR-ToF-AMS auch einzelne organische Verbindungen identifizieren und quantifizieren zu können, wurde eine Methode entwickelt, mit der man Amine der Gasphase selektiv in künstlich erzeugte Phosphorsäurepartikel aufnimmt und so für die HR-ToF-AMS-Messung zugänglich macht. Dadurch kombiniert man die Vorteile der Online-Messung des HR-ToF-AMS mit den Vorteilen klassischer Offline-Probenahmen. So können in Echtzeit sehr einfache Massenspektren gemessen werden, in denen störende Komponenten abgetrennt sind, während die Analyten eindeutig identifiziert werden können. Systeme dieser Art wurden GTRAP-AMS (Gaseous compound TRapping in Artificially-generated Particles – Aerosol Mass Spectrometry) genannt. Kalibrierungen für (Mono)Methylamin, Dimethylamin, Trimethylamin, Diethylamin und Triethylamin ergaben Nachweisgrenzen im ppt-Bereich bei einer Zeitauflösung von 3 min. Kammerexperimente zur Aminemission von Pflanzen zeigten eine gute Übereinstimmung des neu entwickelten Systems mit einer Gasdiffusionsabscheider-Offline-Probenahme und anschließender ionenchromatographischer Analyse. Beide Methoden zeigten Reaktionen der Pflanzen auf eine Veränderung der Lichtverhältnisse, während erhöhte Ozonkonzentrationen die Aminemission nicht veränderten. Die GTRAP-AMS-Methode eignet sich bereits für die Messung von Umgebungsluftkonzentrationen an einigen Orten, für die meisten Orte reicht die Nachweisgrenze allerdings noch nicht aus. Die Technik könnte bereits zur Echtzeitkontrolle industrieller Abgasemissionen eingesetzt werden.
Resumo:
Krebspatienten, die eine Chemotherapie erhalten, leiden häufig an schwerwiegenden unerwünschten Arzneimittelwirkungen, wie z.B. Übelkeit und Erbrechen, welche nachweislich durch eine geeignete Supportivmedikation und durch eine direkte pharmazeutische Betreuung gesenkt werden können.rnIn dieser Arbeit wurde in einer prospektiven, nicht-interventionellen multizentrischen Studie untersucht, ob ambulant behandelte Mamma- und Colon-Carcinom-Patienten während der Chemotherapie Vorteile durch eine indirekte pharmazeutische Betreuung (Mitgabe einer schriftlichen Patienteninformation und der Begleitmedikamente) haben. Primäres Ziel der Studie war eine Reduktion von Häufigkeit und Schweregrad ausgewählter UAW, sekundäre Ziele waren die Verbesserung der Lebensqualität, der Patientenzufriedenheit und des Patientenwissens zur Therapie und Begleitmedikation. Die Daten wurden mittels vier verschiedener Patienten-Fragebögen in Form von Telefoninterviews zu drei verschiedenen Zeitpunkten der Chemotherapie erhoben.rnInsgesamt konnten 106 Patienten vom St.-Johannes-Hospital in Dortmund und von der Universitätsmedizin Mainz in die Studie eingeschlossen werden. Die UAW nach Häufigkeit und Schweregrad gemäß CTC konnten durch eine indirekte pharmazeutische Betreuung zu allen drei Zeitpunkten der Datenerfassung z.T. signifikant gesenkt werden. Eine Verbesserung konnte auch bei allen humanistischen Ergebnisparametern (Patientenwissen, Lebensqualität, Patientenzufriedenheit) beobachtet werden. Auf Grund der relativ kleinen, nicht vollständig rekrutierten Kontrollgruppe und den unterschiedlichen Rahmenbedingungen an den teilnehmenden Kliniken, sind weitere vergleichende Untersuchungen erforderlich, um den Nutzen einer indirekten pharmazeutischen Betreuung weiter zu belegen. rn
Resumo:
Organic farming means a holistic application of agricultural land-use, hence, this study aimed to assess ecological and socio-economic aspects that show benefits of the strategy and achievements of organic farming in comparison to conventional farming in Darjeeling District, State of West Bengal, India and Kanagawa Prefecture/Kanto in Central Japan. The objective of this study has been empirically analysed on aspects of crop diversity, yield, income and sales prices in the two study regions, where 50 households each, i.e. in total 100 households were interviewed at farm-level. Therefore, the small sample size does not necessarily reflect the broad-scale of the use and benefit of organic farming in both regions. The problems faced in mountainous regions in terms of agriculture and livelihoods for small-scale farmers, which are most affected and dependant on their immediate environment, such as low yields, income and illegal felling leading to soil erosion and landslides, are analyzed. Furthermore, factors such as climate, soils, vegetation and relief equally play an important role for these farmers, in terms of land-use. To supplement and improve the income of farmers, local NGOs have introduced organic farming and high value organic cash crops such as ginger, tea, orange and cardamom and small income generating means (floriculture, apiary etc.). For non-certified and certified organic products the volume is given for India, while for Japan only certified organic production figures are given, as there are several definitions for organic in Japan. Hence, prior to the implementation of organic laws and standards, even reduced chemical input was sold as non-certified organic. Furthermore, the distribution and certification system of both countries are explained in detail, including interviews with distribution companies and cooperatives. Supportive observations from Kanagawa Prefecture and the Kanto region are helpful and practical suggestions for organic farmers in Darjeeling District. Most of these are simple and applicable soil management measures, natural insect repelling applications and describe the direct marketing system practiced in Japan. The former two include compost, intercropping, Effective Microorganisms (EM), clover, rice husk charcoal and wood vinegar. More supportive observations have been made at organic and biodynamic tea estates in Darjeeling District, which use citronella, neem, marigold, leguminous and soil binding plants for soil management and natural insect control. Due to the close ties between farmers and consumers in Japan, certification is often neither necessary nor wanted by the producers. They have built a confidence relationship with their customers; thus, such measures are simply not required. Another option is group certification, instead of the expensive individual certification. The former aims at lower costs for farmers who have formed a cooperative or a farmers' group. Consumer awareness for organic goods is another crucial aspect to help improve the situation of organic farmers. Awareness is slightly more advanced in Kanto than in Darjeeling District, as it is improved due to the close (sales) ties between farmers and consumers in Kanto. Interviews conducted with several such cooperatives and companies underline the positive system of TEIKEI. The introduction of organic farming in the study regions has shown positive effects for those involved, even though it still in its beginning stages in Darjeeling District. This study was only partly able to assess the benefits of organic agriculture at its present level for Darjeeling District, while more positively for the organic farmers of Kanto. The organic farming practice needs further improvement, encouragement and monitoring for the Darjeeling District farmers by locals, consumers, NGOs and politicians. The supportive observations from Kanagawa Prefecture and the Kanto region are a small step in this direction, showing how, simple soil improvements and thus, yield and income increases, as well as direct sales options can enhance the livelihood of organic farmers without destroying their environment and natural resources.
Resumo:
Diese Masterarbeit entstand im Rahmen des Projekts Language Toolkit. Die Haupttätigkeit meines Praktikums lag in der Lokalisierung der Website von Remedia ins Deutsche. Zu lokalisieren waren die in Kap. 1 beschriebenen Seiten der Abteilung „Cosmoonda“ zu den von der gleichnamigen Forschungsgruppe des Unternehmens entwickelten bioenergetischen Geräten. Das zweite Kapitel umfasst eine Einführung in die Lokalisierung und bietet einen Überblick über ihre Geschichte. Am Ende des Kapitels wurden die Vorteile der elocalization behandelt und es wurde das neue Anforderungsprofil des Übersetzers beschrieben. Kap. 3 beinhaltet die Analyse der überwiegenden Sprachfunktionen sowie der Textsorten und -typen zum Zweck der bestmöglichen Übertragung der Kommunikationsabsicht des Auftraggebers. Zur Festlegung der optimalen Übersetzungsstrategie von Werbetexten tragen unterschiedliche Faktoren bei, wie z.B. die Säulen des Marketing-Mix, die im vierten Kapitel in Bezug auf die Standardisierung oder Lokalisierung von Werbebotschaften analysiert wurden. Im vorliegenden Zusammenhang spielt die Positionierung eine ausschlaggebende Rolle, weil bioenergetische Geräte einen unterschiedlichen Lebenszyklus in Ausgangs- und Zielmarkt erleben. Anhand von konkreten Beispielen wurde im fünften Kapitel gezeigt, wie die Sprachen der Unternehmen, die ähnliche Produkte und Dienstleistungen anbieten, sich auch aufgrund von kognitiven, temporellen und pragmatischen Faktoren unterscheiden. Kap. 6 enthält eine Beschreibung der praktischen Schritte des Lokalisierungsprozesses (Dokumentationsphase sowie Erstellung und Analyse von Korpora). Der vorletzte Teil bietet einen Überblick über die Komponenten sowie die Vor- und Nachteile der Nutzung von CMS. Im letzten Teil der Arbeit habe ich mich mit den translatorischen Problemen und ihren Lösungen (durch AT-Fehler verursachte evidente Translationsprobleme, Strategien zur Wiedergabe von Produktnamen, Äquivalenzen zwischen AT und ZT) auseinandergesetzt.
Resumo:
Direktsaat ist eine wirksame Erosionsschutzmassnahme, die diverse ökologische und ökonomische Vorteile aufweist. Sie gewann in der Schweiz in den letzten Jahren zunehmend an Bedeutung: Seit Mitte der 1980er hat die direkt gesäte Fläche von wenigen Hektaren auf rund 12'000 ha im Jahre 2006 zugenommen. Gemessen am gesamten Ackerland ist diese Fläche aber nach wie vor gering (3 %). Regional kann die Direktsaat jedoch beachtliche Anteile aufweisen. Die in diesem Artikel vorgestellten Karten geben einen nationalen Überblick über die räumliche Verbreitung der direkt gesäten Fläche im Jahr 2006. Als Datengrundlage diente eine im Winter 2006 / 07 durchgeführte Befragung von Landwirten und Lohnunternehmern. Die Karten zeigen sehr heterogene Muster, machen aber auch verschiedene Schwerpunktregionen sichtbar. Die Interpretation dieser Muster veranschaulicht, dass die Verbreitung der Direktsaat an eine Vielzahl von Faktoren gebunden ist und nicht nur anhand naturräumlicher Gegebenheiten erklärt werden kann. Kantonale Förderprogramme spielen dabei eine ebenso wichtige Rolle wie das persönliche Engagement der beteiligten Experten und Lohnunternehmer, bestehende landwirtschaftliche Netzwerke sowie die Lebenswelten der Landwirte.
Resumo:
Kunststoff-Seilrollen sind leichter als Stahl-Seilrollen, woraus für die Konstruktion, besonders von Auslegerkranen, Vorteile erwachsen. Kunststoff-Seilrollen bringen aber auch Vorteile für das Seil selbst, weil sich dessen Lebensdauer vergrößert. Dieser Lebensdauergewinn wurde durch umfassende experimentelle und theoretische Untersuchungen zum Einfluss von Kunststoff-Seilrollen auf die Drahtseillebensdauer quantifiziert und begründet. Zur sicherheitstechnischen Beherrschung von Seiltrieben mit Kunststoff-Seilrollen wird eine Online-Schadensakkumulation vorgeschlagen.
Resumo:
Die Radio Frequenz Identifikation (RFID) gilt als wichtigste technologische Neuerung in der Informationslogistik. Wird RFID in der produzierenden Industrie hauptsächlich zur Betriebsdaten-erfassung und im Handel zur Wareneingangs-/ Warenausgangskontrolle verwendet, so können ins-besondere in der Pharmazeutischen Industrie die Vorteile der Technologie voll ausgereizt werden. Die wohl wichtigste Anwendung ist die lückenlose Rückverfolgung entlang der Lieferkette, wie sie in den USA bereits in einigen Staaten für alle pharmazeutischen Produkte vorgeschrieben und auch in Deutschland für bestimmte Produkte erforderlich ist. Zudem können die RFID Transponder auf der Produktver-packung als fälschungssicheres Merkmal eingesetzt werden. Bei temperatursensiblen Produkten können Transponder mit zusätzlicher Sensorik zur Überwachung der Kühlkette dienen. Gleichzeitig kann der Transponder auch als Diebstahlsicherung im innerbetrieblichen Bereich sowie auch im Handel dienen und ermöglicht dabei eine höhere Sicherheit als die bisher eingesetzten 1-Bit Transponder. Die Trans-pondertechnologie kann außerdem den Barcode ganz oder teilweise ersetzen und so einen großen Beitrag zur Prozessautomatisierung leisten.
Resumo:
Zahnriemenfördersysteme haben auf Grund ihrer wirtschaftlichen und technischen Vorteile beim Transport von Stückgütern ein breites Anwendungsfeld in den unterschiedlichen Bereichen der Industrie gefunden und gewinnen weiterhin an Bedeutung. Die Auslegung der Systeme beschränkt sich gegenwärtig im Wesentlichen auf die Zugstrang- und die Zahnfußfestigkeit des Zahnriemens. Grundlagen der Berechnungen sind oft recht vage Aussagen zur Höhe des Reibwertes zwischen dem Zahnriemen und dessen Stützschiene. Die Erhöhung der Kontakttemperatur durch die eingebrachte Reibleistung wird meist völlig vernachlässigt. In der Praxis wird oftmals auf Erfahrungswerte zurückgegriffen, wobei die Gefahr der Über- bzw. Unterdimensionierung mit erheblichen Auswirkungen auf die Lebensdauer, das Verschleißverhalten und die Betriebssicherheit besteht. 1. Anwendung von Zahnriemenförderern Das Einsatzgebiet der Zahnriemen ist neben der Antriebstechnik in zunehmendem Maße die Fördertechnik, wo diese als Zug- und Tragmittel für den Stückguttransport zur Anwendung kommen. Der Grund dieser Entwicklung lässt sich mit den günstigen Eigenschaften dieser Maschinenelemente erklären. Besonders zu erwähnen sind dabei der geräuscharme Lauf, die geringe Masse und die niedrigen Kosten in Anschaffung und Wartung. Der synchrone Lauf, der mit Zahnriemen wie auch mit Förderketten realisierbar ist, ist ein weiterer wesentlicher Vorteil. Dabei übernehmen die robusten Förderketten den Bereich der Fördertechnik, in dem große Kräfte übertragen werden müssen und stark schmutzintensive Umgebungsbedingungen vorherrschen. Haupteinsatzgebiete der Zahnriemenförderer ist der Bereich der empfindlicheren Güter mit relativ geringen Massen, wobei sich immer mehr abzeichnet, dass auch Einsatzgebiete mit schweren Werkzeugträgern erschlossen werden. Die Transportzahnriemen müssen bei dem Einsatz zahnseitig abgestützt werden, um die Gutmasse aufnehmen zu können. Stückgüter können von Zahnriemen durch Kraft- oder Formschluss transportiert werden. Der Einsatz ist von den technologischen Erfordernissen und der Art des Transportgutes abhängig. Formschluss wird meist über aufgeschweißte Formelemente / Mitnehmer realisiert. Diese Art des Transportes wird verwendet, wenn Teile: • vereinzelt, • genau positioniert, ������ zeitlich exakt getaktet, • über starke Steigungen bis hin zum vertikalen transportiert werden müssen, • bzw. sich gegenseitig nicht berühren dürfen. Abbildung 1: Formschlüssiger Transport mit aufgeschweißten Formelementen Die Art und die Form des auf dem Zahnriemenrücken aufgebrachten Formelementes werden vom Gut selbst und dem Einsatzzweck bestimmt. Eine Vielzahl von verschiedenen Elementen wird von der Industrie standardmäßig angeboten. Bei der kraftschlüssigen Variante können zwei grundlegende Arten unterschieden werden: Zum einen Zahnriemenbeschichtungen mit sehr hohem Reibwert, zum anderen mit sehr niedrigen Reibwerten. Beschichtungen mit sehr hohem Reibwert (z. B. Silikon, PUR-Schaum, Naturkautschuk) eignen sich besonders für Schrägförderer und Abzugsbänder sowie für einfache Positionieraufgaben. Dabei wird eine relative Verschiebung des Gutes zum Zahnriemen durch den hohen Reibwert in der Kontaktzone behindert. Abbildung 2: Abzugsband für biegeschlaffe Flachformkörper z. B. Folie, Textilien Zahnriemenrückenbeschichtungen mit geringen Reibwerten bestehen meist aus Polyamidgewebe und eignen sich besonders gut für den Staubetrieb. Hierbei dient der Zahnriemen selbst als Zwischenspeicher. Bei Bedarf können die Güter freigegeben werden. Dabei muss aber sichergestellt werden, dass auch die Auflagefläche des Fördergutes für einen solchen Einsatzzweck geeignet ist, da es zu einer Relativbewegung zwischen Gut und undZahnriemen kommt. Abbildung 3: Stauförderer Parallelförderer können sowohl als reibschlüssige als auch als formschlüssige Variante ausgeführt werden. Ihr Vorteil liegt darin, dass größere Güter, z. B. Flachglas, Bleche usw. auf zwei oder mehreren Riemen aufliegen und durch die gleiche Geschwindigkeit der synchron angetriebenen Riemen keine Verschiebung des Gutes erfolgt. Würde der Antrieb nicht über Zahnriemen erfolgen, sondern über Flachriemen bzw. Gurte, wäre außerdem ein Zugmittel in der Breite des Fördergutes notwendig. Daraus ergibt sich zusätzlich eine wesentliche Massereduzierung der Zugmittel für den Stückguttransport in der Fördertechnik. Abbildung 4: Parallelförderer für kraftschlüssigen Transport Allen diesen Varianten ist jedoch gemein, dass der Zahnriemen auf einer Stützschiene gleitet und die Normalkraft des Transportgutes in Verbindung mit Riemengeschwindigkeit und Reibwert eine Reibleistung und damit Wärme erzeugt. Zum gegenwärtigen Zeitpunkt fehlen exakte Angaben zu den Reibwerten für die einzelnen Gleitpaarungen. Auch ist eine Veränderung dieser Reibwerte bei Geschwindigkeits-, Temperatur-, und Belastungsänderung ungeklärt. Des Weiteren ist es auch notwendig, die Belastungsgrenzen für die Auslegung von Zahnriemenförderern zu definieren und das Verschleißverhalten zu kennen. Die derzeit üblichen Auslegungskriterien für diese fördertechnischen Anlagen sind Zugstrangfestigkeit und Zahnfußfestigkeit. Dabei bleibt jedoch die Erwärmung des Zugmittels und der Stützschiene durch die eingebrachte Reibleistung und den sich ändernden Reibwert unbeachtet. Insbesondere bei kurzen Förderstrecken mit großen Lasten bzw. hohen Transportgeschwindigkeiten ist die Gefahr von thermischen Überlastungen gegeben, welche zu erhöhtem Verschleiß bzw. zum Totalausfall der Anlage führen kann. Soll dieses zusätzliche Auslegungskriterium angewandt werden, sind Erkenntnisse aus den Gebieten der Tribologie und der Wärmelehre/Thermodynamik anzuwenden. Zum einen ist eine Bestimmung der entstehenden Reibleistung notwendig und zum anderen der abgeführte Wärmestrom zu ermitteln. Die sehr komplexen Zusammenhänge werden durch konstruktive und technologische Größen beschrieben, welche sich wiederum gegenseitig beeinflussen. 2. Reibwerte in der Gleitpaarung In DIN ISO 7148-2 sind die Besonderheiten bei der tribologischen Prüfung von polymeren Werkstoffen beschrieben. Dabei wird explizit darauf hingewiesen, dass die Prüfanordnung möglichst der praktischen Anwendung entsprechen sollte, um die Übertragbarkeit der Prüfergebnisse zu gewährleisten. Deshalb wurde ein Versuchsstand konzipiert, der die Kontaktverhältnisse von Zahnriemen und Stützschienen möglichst real abbildet (Abb.5). Abbildung 5: Schematischer Aufbau des Versuchsstandes Für die Untersuchung der Zahnriemenpaarung wird der Zahnriemen mit der Zahnseite nach oben aufgespannt. Auf die nach oben zeigende Zahnseite wird eine planparallele Platte des jeweiligen Gleitschienenmaterials aufgelegt. Die Flächenpressung der Paarung lässt sich über aufgebrachte Massestücke variieren und die Reibkraft über den Kraftsensor direkt über eine Schnittstelle zur Aufzeichnung an einen Rechner weiterleiten. Zur Ermittlung der Kontakttemperaturen wurden Bohrungen in das Gleitschienenmaterial eingebracht, die unmittelbar bis an die Oberfläche der Kontaktfläche reichen und mit Thermoelementen bestückt sind. Die Abstützung des Zahnriemens erfolgt auf einem Flachriemen, der wiederum auf einer Rollenbahn abrollt. Dadurch wird ein zusätzlicher Wärmeeintrag durch eine gleitende Abstützung vermieden. Die Gleitgeschwindigkeit und Flächenpressung auf die Paarung werden in Stufen variiert. Als Versuchszahnriemen dienten PU-Riemen mit und ohne zahnseitiger Polyamidbeschichtung der Abmessung 1250 x 25 T10. Abbildung 6: Reibwertmessungen an PU-Zahnriemen ohne Beschichtung (Kurzzeitversuche) Die ermittelten Messwerte der Gleitreibungszahl µ für verschiedene PU-Zahnriemen – Stützschienenkombinationen sind in Abbildung 6 dargestellt. Die schraffierten Balken geben die Reibungszahlempfehlungen von Herstellern sowie aus Literaturquellen für diese Paarungen wieder. Oft wird jedoch darauf hingewiesen, dass für einen konkreten Anwendungsfall eigene Untersuchungen durchzuführen sind. Die grauen Balken geben die bei einer Versuchsdauer von bis zu 8 Stunden ermittelten Reibungszahlen wieder. Dabei wurden sowohl die Flächenpressungen als auch die Gleitgeschwindigkeiten variiert. Bei einigen Paarungen (Holz (Abb.7)) konnte ein sehr starker abrasiver Verschleiß am Zahnriemen festgestellt werden. Diese Werkstoffkombinationen sind nur für geringe Belastungen geeignet. Abbildung 7: Oberfläche PU-Zahnriemen, verschlissen an Schichtholz Die Paarungen in Verbindung mit Stahl- bzw. Aluminiumstützschienen neigen zu stick-slip- Erscheinungen verbunden mit starker Geräuschentwicklung. Aufgrund der relativ hohen Reibungszahlen wurden keine Dauerversuche an unbeschichteten PU-Zahnriemen durchgeführt. Für die weiteren Untersuchungen wurden ausschließlich polyamidbeschichtete Zahnriemen verwendet. In Abbildung 8 werden die Ergebnisse der Reibwertuntersuchungen an PAZ-Zahnriemen (Polyamidgewebebeschichtung auf der Zahnseite) dargestellt. Die schraffierten Balken stellen wiederum die bisherigen Empfehlungen dar, die grauen Balken die ermittelten Messwerte im Kurzzeitversuch (bis 8 Stunden) und die schwarzen Balken die Messwerte im Langzeitversuch (zwischen 7 und teilweise bis zu 100 Tagen). Hier ist die Übereinstimmung der Reibungszahlen zwischen Empfehlungen und Kurzzeitmesswerten sehr gut. Der deutliche Anstieg der Werte im weiteren Verlauf der Untersuchungen deutet daraufhin, dass der tribologische Einlauf innerhalb von 8 Stunden meist noch nicht abgeschlossen ist und dass nach fortlaufender Belastung weitere tribologische Phänomene die Kontaktverhältnisse ändern. Abbildung 8: Reibungszahlen an polyamidbeschichteten PU-Zahnriemen (PAZ) in Verbindung mit verschiedenen Gleitschienen Bei den Paarungen mit einer Stützschiene aus Stahl, Aluminium oder Schichtholz konnte eine polymere Filmbildung auf der Gleitfläche beobachtet werden. In Abbildung 9 und 10 ist die Entwicklung am Beispiel von Stahlproben zu sehen. Gemeinsam bei diesen Paarungen ist die fortschreitende Schichtbildung, verbunden mit einer Reibwerterhöhung. Der Verschleiß der Gewebeschicht am Zahnriemen setzt bei größeren Reibungszahlen ein, was zu deren weiterer Erhöhung führt Ein weiterer Einsatz führt zur vollständigen Abtragung der Gewebeschicht und damit zu einer neuen tribologischen Paarung PU-Zahnriemen ��� Polymerschicht. Abbildung 9: beginnende polymere Ablagerung auf Stahlprobe Rz28 Abbildung 10: nahezu geschlossener polymerer Film auf Stahlprobe Rz28 Am Beispiel der Paarung PAZ Zahnriemen – Stahlstützschiene wird die Entwicklung der Reibungszahl über die Zeit des Gleitkontaktes in Abbildung 12 dargestellt. Dabei wurde die Oberflächenrauigkeit (Rz 6,3; Rz 28) durch entsprechende Bearbeitungen variiert. Der relativ starke Anstieg an der Paarung Rz 6,3 kann zum einen auf die hohe Gleitgeschwindigkeit und den damit entsprechend langen Gleitweg zurückgeführt werden, zum anderen auf den höheren adhäsiven Anteil durch die relativ glatte Oberfläche und der damit erhöhten Kontaktfläche. Abbildung 11 zeigt einen verschlissenen Zahnkopf. Abbildung 9: Verschlissene Zahnkopfflanke, PAZ - Stahl Abbildung 10: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PA – Stahl Die Erhöhung der Reibungszahlen an der Paarung PE UHMW - polyamidbeschichteter Zahnriemen kann nicht unmittelbar auf direkte Verschleißerscheinungen zurückgeführt werden. Sowohl die Gleitfläche als auch der Zahnriemen weisen auch nach längerem Kontakt keine sichtbaren Schäden auf: Es bildet sich kein polymerer Film auf der PE- UHMW- Gleitfläche heraus. In Abbildung 11 wird die Änderung der Reibungszahl dargestellt. Es wurden Paarungen mit steigendem p•v-Wert gewählt. Mit höheren Werten für die eingebrachte Leistung pro Flächeneinheit ist ein schnellerer Anstieg der Reibungszahlen zu verzeichnen. Abbildung 11: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PAZ – PE UHMW Die Erhöhung der Reibwerte zieht nicht nur eine Steigerung der Antriebsleistung nach sich, sondern auch eine Zunahme der Reibleistung und damit einen Anstieg der Kontakttemperatur. Hat diese einen bestimmten Wert erreicht, kommt es zum Aufschmelzen der Gleitflächen und damit zum Totalausfall der Paarung (Abbildungen 14, 15, 16). Ebenfalls tritt durch die Reibwerterhöhung eine höhere Belastung des Zugstranges und der Zahnfüße im Einlauf des Zahnriemens auf. Für eine konstruktive Auslegung entsprechender Zahnriemenförderer ist dies durch entsprechende Sicherheitsfaktoren zu berücksichtigen. Abbildung 12: Aufgeschmolzene PE-Laufschiene, 2-fach vergrößert Abbildung 13: geschmolzene Faserbündel 20- fach Abbildung 14: zerstörtes Gewebe in Folge thermischer Überlastung 3. Thermische Zusammenhänge Die Temperaturerhöhung in der Wirkstelle zwischen Zahnriemen und Stützschiene kann im stationären Zustand in der vereinfachten Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche a Wärmeübergangskoeffizient l Wärmeleitwert Abbildung 15: Kontaktmodell dargestellt werden. Dabei werden verschiedene Vereinfachungen angenommen: • Reibleistung wird auf die gesamte Fläche gleichmäßig verteilt, • Wärmestrom erfolgt nur in Normalenrichtung zur Gleitfläche, • konstante Reibleistung über die gesamte Zeit, • keine Ableitung des Wärmestromes über Stirn- und Seitenflächen, • eingeschwungener Gleichgewichtszustand der Temperaturverteilung, • gleiche Temperatur über der jeweiligen Oberfläche, • gleiche Strömungsverhältnisse und -bedingungen an der jeweiligen Oberfläche, • konstante - und - Werte über der gesamten Fläche. Der Temperaturverlauf für verschiedene Materialpaarungen ist in Abbildung 16 dargestellt. Der unterschiedliche Verlauf der Kurven kann mit den verschiedenen eingebrachten Reibleistungen durch sich unterschiedlich einstellende Reibungszahlen und durch die unterschiedlichen Wärmeleitwerte und Wärmekapazitäten der Gleitschienen erklärt werden. Ist eine stationäre Temperatur erreicht, so gilt vereinfacht die Vorstellung von Abbildung 15. Abbildung 16: thermischer Einlauf verschiedener Stützschienenmaterialien Die sich einstellende Gleitflächentemperatur ist im Wesentlichen von den in Abbildung 17 dargestellten Einflüssen abhängig. Da die Kontakttemperatur die Grenztemperatur (ca. 65°C) nicht überschreiten darf, um eine thermische Schädigung zu vermeiden, sind die entsprechenden Einflussgrößen zweckmäßig zu wählen. Die Parameter Gleitgeschwindigkeit und Flächenpressung sind meist durch die technologischen Erfordernisse vorgegeben, die Reibungszahl stellt sich entsprechend der tribologischen Paarung ein und die Wärmeleitfähigkeit ist ein kaum zu verändernder Stoffwert. Die Einflussmaßnahmen erstrecken sich also meist auf die Schichtstärke s der Abstützung und den Wärmeübergang zur Umgebung. Abbildung 17: Technologische und konstruktive Einflüsse auf die Gleitflächentemperatur in der Wirkstelle 4. Zusammenfassung Die Kenntnis der sich nach einer entsprechenden Einlaufphase einstellenden Reibungszahlen für verschiedene Zahnriemen – Stützschienenkombinationen ist für die Anwender und Entwickler wichtig, da damit eine optimale Auslegung von Zahnriemenförderern erfolgen kann. Diese optimale Auslegung realisiert dann in der Anwendung eine ökonomische Lebensdauer bei verbesserter konstruktiver Auslegung. Die bisher weitgehend unbeachtete Temperaturerhöhung in der Gleitschienen – Zahnriemenkombination durch die eingebrachte Reibleistung sollte zukünftig ein weiteres Auslegungskriterium darstellen. Eine erste Annäherung an dieses Problem kann durch die Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche K Wärmeabgabekoeffizient DT max. zul. Temperaturerhöhung K= f (µ, p, v, Gleitschienenmaterial, Zahnriemenausführung, Maschinenkonstante…) gezeigt werden. Für die Ermittlung des Wärmeabgabekoeffizienten sind entsprechende Untersuchungen durchzuführen und Zusammenhänge zu ermitteln. Bestimmte Praxiseinflüsse (Umgebungstemperaturschwankungen, Verschmutzung, Stöße, Montagefehler) sind in die bisherigen Untersuchungen noch nicht eingeflossen, sollten aber nicht unbeachtet bleiben. Durch eine vorteilhafte Auslegung der Förderanlagen kann eine höhere Zuverlässigkeit bei geringeren Wechselintervallen und niedrigeren Kosten für den Betrieb erreicht werden.
Resumo:
Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.