931 resultados para Modell
Resumo:
Bei den Pflanzen sind viele Fragen bezüglich der Organisation und Regulation des bei der Zellteilung und differenzierung wichtigen Auf-, Ab- und Umbaus des Mikrotubuli-Netzwerkes noch immer offen, insbesondere was die Rolle des γ-Tubulins betrifft. Ziel der vorliegenden Arbeit war die Etablierung von BY-2 Modell-Zelllinien (Nicotiana), die verschiedene mit fluoreszierenden Proteinen (FP) markierte Elemente des Cytoskeletts exprimieren, um eine fluoreszenzmikroskopische Detektion in vivo zu ermöglichen.rnAls Grundlage für alle weiteren Versuche wurde eine zuverlässige Methode zur A. tumefaciens vermittelten stabilen Transfektion von BY-2 Zellen erarbeitet. Für die Expression von FP-markierten Cytoskelettproteinen, wurden entsprechende Fusionskonstrukte kloniert und via A. tumefaciens in BY-2 Zellen transferiert. So gelang zunächst die Herstellung transgener Zelllinien, die GFP-markiertes α- bzw. γ-Tubulin exprimierten. Diese sollten später als Basis für die Untersuchung des dynamischen Mikrotubuli-Netzwerkes bzw. dessen Regulation dienen. In beiden Zelllinien standen die Konstrukte zunächst unter Kontrolle eines doppelten 35S-Promotors, was zu einer starken, konstitutiven Expression der Transgene führte. Fluoreszenzmikroskopisch konnten Strukturen, an deren Aufbau Mikrotubuli beteiligt sind, detektiert werden. Aufgrund einer starken Hintergrundfluoreszenz, vermutlich bedingt durch die konstitutive Überexpression, war die Darstellung feinerer Bereiche, wie sie im Cytoskelett häufig auftreten, jedoch äußerst schwierig. Deshalb wurde eine schwächere bzw. adäquate Expressionsrate angestrebt. rnPhysiologische Expressionsraten sollten vor allem durch den endogenen γ-Tubulin-Promotor ermöglicht werden. Da die entsprechende Sequenz noch unbekannt war, wurde sie zunächst bestimmt und in ein passendes Konstrukt integriert. Fluoreszenzmikroskopische Untersuchungen der resultierenden Zelllinie ließen auf eine stark reduzierte Expressionsrate schließen. Tatsächlich war die Detektion von Cytoskelettstrukturen, wenn überhaupt, erst bei deutlich längeren Belichtungszeiten möglich. Bedingt durch die langen Belichtungszeiten wurde die Dokumentation durch eine latente pflanzentypische Autofluoreszenz der Zellen erschwert. Auch wenn hier keine detailreicheren Aufnahmen der Cytoskelettstrukturen möglich waren, ist die Zellkultur für weiterführende Untersuchungen, z.B. in Studien bezüglich des zeitlichen Expressionsmusters des γ-Tubulins, potentiell geeignet. Der Einsatz eines sensibleren Mikroskopsystems ist allerdings erforderlich. rnUm klären zu können, inwieweit γ-Tubulin mit den Mikrotubuli co-lokalisiert, wurden Zelllinien benötigt, bei denen die entsprechenden Elemente unterschiedlich markiert waren. Zu diesem Zweck wurde der Einsatz von RFP-markiertem Tubulin getestet. Eine deutliche Überexpression von RFP alleine war möglich. Trotz mehrfacher Wiederholung der Versuche war aber keine Expression von RFP-markiertem α-Tubulin in BY-2 Zellen zur Visualisierung der Mikrotubuli detektierbar. Die DNA-Sequenzen waren im Genom nachweisbar, eine Transkription jedoch nicht. Möglicherweise spielten hier gene silencing Effekte eine Rolle. Das verwendete RFP (TagRFP) und GFP stammten aus unterschiedlichen Organismen, aus einer Seeanemone bzw. einer Qualle. Eine Lösung könnte der Austausch des TagRFP durch ein Quallen-Derivat, das in einer von grün unterscheidbaren Farbe fluoresziert, bringen. Da bereits BY-2 Zelllinien vorliegen, die GFP-markiertes α- bzw. γ-Tubulin exprimieren, sollte es, nach Klonieren eines entsprechenden Konstruktes, zeitnah möglich sein, eine doppelt transfizierte Zelllinie herzustellen.
Resumo:
Da nicht-synonyme tumorspezifische Punktmutationen nur in malignen Geweben vorkommen und das veränderte Proteinprodukt vom Immunsystem als „fremd“ erkannt werden kann, stellen diese einen bisher ungenutzten Pool von Zielstrukturen für die Immuntherapie dar. Menschliche Tumore können individuell bis zu tausenden nicht-synonymer Punktmutationen in ihrem Genom tragen, welche nicht der zentralen Immuntoleranz unterliegen. Ziel der vorliegenden Arbeit war die Hypothese zu untersuchen, dass das Immunsystem in der Lage sein sollte, mutierte Epitope auf Tumorzellen zu erkennen und zu klären, ob auf dieser Basis eine wirksame mRNA (RNA) basierte anti-tumorale Vakzinierung etabliert werden kann. Hierzu wurde von Ugur Sahin und Kollegen, das gesamte Genom des murinen B16-F10 Melanoms sequenziert und bioinformatisch analysiert. Im Rahmen der NGS Sequenzierung wurden mehr als 500 nicht-synonyme Punktmutationen identifiziert, von welchen 50 Mutationen selektiert und durch Sanger Sequenzierung validiert wurden. rnNach der Etablierung des immunologischen Testsysteme war eine Hauptfragestellung dieser Arbeit, die selektierten nicht-synonyme Punktmutationen in einem in vivo Ansatz systematisch auf Antigenität zu testen. Für diese Studien wurden mutierte Sequenzen in einer Länge von 27 Aminosäuren genutzt, in denen die mutierte Aminosäure zentral positioniert war. Durch die Länge der Peptide können prinzipiell alle möglichen MHC Klasse-I und -II Epitope abgedeckt werden, welche die Mutation enthalten. Eine Grundidee des Projektes Ansatzes ist es, einen auf in vitro transkribierter RNA basierten oligotopen Impfstoff zu entwickeln. Daher wurden die Impfungen naiver Mäuse sowohl mit langen Peptiden, als auch in einem unabhängigen Ansatz mit peptidkodierender RNA durchgeführt. Die Immunphänotypisierung der Impfstoff induzierten T-Zellen zeigte, dass insgesamt 16 der 50 (32%) mutierten Sequenzen eine T-Zellreaktivität induzierten. rnDie Verwendung der vorhergesagten Epitope in therapeutischen Vakzinierungsstudien bestätigten die Hypothese das mutierte Neo-Epitope potente Zielstrukturen einer anti-tumoralen Impftherapie darstellen können. So wurde in therapeutischen Tumorstudien gezeigt, dass auf Basis von RNA 9 von 12 bestätigten Epitopen einen anti-tumoralen Effekt zeigte.rnÜberaschenderweise wurde bei einem MHC Klasse-II restringierten mutiertem Epitop (Mut-30) sowohl in einem subkutanen, als auch in einem unabhängigen therapeutischen Lungenmetastasen Modell ein starker anti-tumoraler Effekt auf B16-F10 beobachtet, der dieses Epitop als neues immundominantes Epitop für das B16-F10 Melanom etabliert. Um den immunologischen Mechanismus hinter diesem Effekt näher zu untersuchen wurde in verschieden Experimenten die Rolle von CD4+, CD8+ sowie NK-Zellen zu verschieden Zeitpunkten der Tumorentwicklung untersucht. Die Analyse des Tumorgewebes ergab, eine signifikante erhöhte Frequenz von NK-Zellen in den mit Mut-30 RNA vakzinierten Tieren. Das NK Zellen in der frühen Phase der Therapie eine entscheidende Rolle spielen wurde anhand von Depletionsstudien bestätigt. Daran anschließend wurde gezeigt, dass im fortgeschrittenen Tumorstadium die NK Zellen keinen weiteren relevanten Beitrag zum anti-tumoralen Effekt der RNA Vakzinierung leisten, sondern die Vakzine induzierte adaptive Immunantwort. Durch die Isolierung von Lymphozyten aus dem Tumorgewebe und deren Einsatz als Effektorzellen im IFN-γ ELISPOT wurde nachgewiesen, dass Mut-30 spezifische T-Zellen das Tumorgewebe infiltrieren und dort u.a. IFN-γ sekretieren. Dass diese spezifische IFN-γ Ausschüttung für den beobachteten antitumoralen Effekt eine zentrale Rolle einnimmt wurde unter der Verwendung von IFN-γ -/- K.O. Mäusen bestätigt.rnDas Konzept der individuellen RNA basierten mutationsspezifischen Vakzine sieht vor, nicht nur mit einem mutations-spezifischen Epitop, sondern mit mehreren RNA-kodierten Mutationen Patienten zu impfen um der Entstehung von „escape“-Mutanten entgegenzuwirken. Da es nur Erfahrung mit der Herstellung und Verabreichung von Monotop-RNA gab, also RNA die für ein Epitop kodiert, war eine wichtige Fragestellungen, inwieweit Oligotope, welche die mutierten Sequenzen sequentiell durch Linker verbunden als Fusionsprotein kodieren, Immunantworten induzieren können. Hierzu wurden Pentatope mit variierender Position des einzelnen Epitopes hinsichtlich ihrer in vivo induzierten T-Zellreaktivitäten charakterisiert. Die Experimente zeigten, dass es möglich ist, unabhängig von der Position im Pentatop eine Immunantwort gegen ein Epitop zu induzieren. Des weiteren wurde beobachtet, dass die induzierten T-Zellfrequenzen nach Pentatop Vakzinierung im Vergleich zur Nutzung von Monotopen signifikant gesteigert werden kann.rnZusammenfassend wurde im Rahmen der vorliegenden Arbeit präklinisch erstmalig nachgewiesen, dass nicht-synonyme Mutationen eine numerisch relevante Quelle von Zielstrukturen für die anti-tumorale Immuntherapie darstellen. Überraschenderweise zeigte sich eine dominante Induktion MHC-II restringierter Immunantworten, welche partiell in der Lage waren massive Tumorabstoßungsreaktionen zu induzieren. Im Sinne einer Translation der gewonnenen Erkenntnisse wurde ein RNA basiertes Oligotop-Format etabliert, welches Eingang in die klinische Testung des Konzeptes fand.rn
Resumo:
This thesis assesses the question, whether accounting for non-tradable goods sectors in a calibrated Auerbach-Kotlikoff multi-regional overlapping-generations-model significantly affects this model’s results when simulating the economic impact of demographic change. Non-tradable goods constitute a major part of up to 80 percent of GDP of modern economies. At the same time, multi-regional overlapping-generations-models presented by literature on demographic change so far ignored their existence and counterfactually assumed perfect tradability between model regions. Moreover, this thesis introduces the assumption of an increasing preference share for non-tradable goods of old generations. This fact-based as-sumption is also not part of models in relevant literature. rnThese obvious simplifications of common models vis-à-vis reality notwithstanding, this thesis concludes that differences in results between a model featuring non-tradable goods and a common model with perfect tradability are very small. In other words, the common simplifi-cation of ignoring non-tradable goods is unlikely to lead to significant distortions in model results. rnIn order to ensure that differences in results between the ‘new’ model, featuring both non-tradable and tradable goods, and the common model solely reflect deviations due to the more realistic structure of the ‘new’ model, both models are calibrated to match exactly the same benchmark data and thus do not show deviations in their respective baseline steady states.rnA variation analysis performed in this thesis suggests that differences between the common model and a model with non-tradable goods can theoretically be large, but only if the bench-mark tradable goods sector is assumed to be unrealistically small.rnFinally, this thesis analyzes potential real exchange rate effects of demographic change, which could occur due to regional price differences of non-tradable goods. However, results show that shifts in real exchange rate based on these price differences are negligible.rn
Resumo:
Biorelevante Medien sind entwickelt worden, um die Bedingungen im Magen-Darm-Trakt vor und nach der Mahlzeit zu imitieren. Mit FaSSIF und FeSSIF wurden Medien eingeführt, die nicht nur die pH- und Puffer-Kapazität des Dünndarms widerspiegeln, sondern auch Lipid und physiologische Tensid-Arten enthalten. Diese Medien (FaSSIF-V2 und FaSSlFmod6.5) wurden für Bioverfügbarkeitstudien in der Medikamentenentwicklung im Laufe der Jahre kontinuierlich weiterentwickelt. Dennoch sind die auf dem Markt verfügbaren Medien immer noch nicht in der Lage, die realen physiologischen Bedingungen zu simulieren. In der jetzigen Zusammensetzung sind nicht alle Kompetenten enthalten, welche natürlicher Weise im Duodenum vorkommen. Darüber hinaus wird nur eine 1:5 Verdünnung von FeSSIF zu FaSSIF angenommen, die individuelle Wasserzufuhr bei Medikamentengabe wird hierdurch jedoch nur eingeschränkt simuliert, obwohl diese von Patient zu Patient schwanken kann. rnZiel dieser Dissertation war die Verbesserung der Vorhersage der Auflösung und Absorption lipophiler Arzneistoffe durch Simulation der Bedingungen im zweiten Teil des Zwölffingerdarms mit neuen biorelevanten Medien, sowie unter Einwirkung zusätzlicher Detergention als Wirkstoffträger. rnUm den Effekt der Verdünnungsrate und Zeit im Dünndarm zu untersuchen, wurde die Entwicklung der Nanopartikel in der Magen-Darm-Flüssigkeit FaSSIFmod6.5 zu verschiedenen Zeitpunkten und Wassergehalten untersucht. Dafür wurden kinetische Studien an verschieden konzentrierten Modellmedien nach Verdünnungssprung untersucht. Das Modell entspricht der Vermischung der Gallenflüssigkeit mit dem Darminhalt bei variablem Volumen. Die Ergebnisse zeigen, dass Art und Größe der Nanopartikel stark von Verdünnung und Einirkungszeit abhängen. rnrnDie menschliche Darmflüssigkeit enthält Cholesterin, welches in allen früheren Modellmedien fehlt. Daher wurden biokompatible und physiologische Modellflüssigkeiten, FaSSIF-C, entwickelt. Der Cholesteringehalt von FaSSIF - 7C entspricht der Gallenflüssigkeit einer gesunden Frau, FaSSIF - 10C der einer gesunden männlichen Person und FaSSIF - 13C der in einigen Krankheitszuständen. Die intestinale Teilchen-Struktur-Untersuchung mit dynamische Lichtstreuung (DLS) und Neutronen-Kleinwinkelstreuung (SANS) ergab, dass die Korngröße von Vesikeln mit zunehmender Cholesterin-Konzentration abnahm. Zu hohe Cholesterin-Konzentration bewirkte zusätzlich sehr große Partikel, welche vermutlich aus Cholesterin-reichen “Disks“ bestehen. Die Löslichkeiten einiger BCS Klasse II Wirkstoffe (Fenofibrat, Griseofulvin, Carbamazepin, Danazol) in diesen neuen Medien zeigten, dass die Löslichkeit in unterschiedlicher Weise mit der Cholesteringehalt zusammen hing und dieser Effekt selektiv für die Droge war. rnDarüber hinaus wurde die Wirkung von einigen Tensiden auf die kolloidale Struktur und Löslichkeit von Fenofibrat in FaSSIFmod6.5 und FaSSIF -7C untersucht. Struktur und Löslichkeit waren Tensid- und Konzentrations-abhängig. Im Falle von FaSSIFmod6.5 zeigten die Ergebnisse eine dreifache Verzweigung der Lösungswege. Im Bereich mittlerer Tensidkonzentration wurde eine Löslichkeitslücke der Droge zwischen der Zerstörung der Galle-Liposomen und der Bildung von Tensid-reichen Mizellen beobachtet. In FaSSIF - 7C, zerstörten Tenside in höherer Konzentration die Liposomenstruktur trotz der allgemeinen Stabilisierung der Membranen durch Cholesterin. rnDie in dieser Arbeit vorgestellten Ergebnisse ergeben, dass die Anwesenheit von Cholesterin als eine fehlende Komponente der menschlichen Darmflüssigkeit in biorelevanten Medien wichtig ist und dazu beitragen kann, das in vivo Verhalten schwerlöslicher Arzneistoffe im Körper besser vorhersagen zu können. Der Verdünnungsgrad hat einen Einfluss auf die Nanopartikel-Struktur und Tenside beeinflussen die Löslichkeit von Medikamenten in biorelevanten Medien: Dieser Effekt ist sowohl von der Konzentration das Tensids abhängig, als auch dessen Typ.rnrn
Resumo:
In this thesis I present a new coarse-grained model suitable to investigate the phase behavior of rod-coil block copolymers on mesoscopic length scales. In this model the rods are represented by hard spherocylinders, whereas the coil block consists of interconnected beads. The interactions between the constituents are based on local densities. This facilitates an efficient Monte-Carlo sampling of the phase space. I verify the applicability of the model and the simulation approach by means of several examples. I treat pure rod systems and mixtures of rod and coil polymers. Then I append coils to the rods and investigate the role of the different model parameters. Furthermore, I compare different implementations of the model. I prove the capability of the rod-coil block copolymers in our model to exhibit typical micro-phase separated configurations as well as extraordinary phases, such as the wavy lamellar state, percolating structuresrnand clusters. Additionally, I demonstrate the metastability of the observed zigzag phase in our model. A central point of this thesis is the examination of the phase behavior of the rod-coil block copolymers in dependence of different chain lengths and interaction strengths between rods and coil. The observations of these studies are summarized in a phase diagram for rod-coil block copolymers. Furthermore, I validate a stabilization of the smectic phase with increasing coil fraction.rnIn the second part of this work I present a side project in which I derive a model permitting the simulation of tetrapods with and without grafted semiconducting block copolymers. The effect of these polymers is added in an implicit manner by effective interactions between the tetrapods. While the depletion interaction is described in an approximate manner within the Asakura-Oosawa model, the free energy penalty for the brush compression is calculated within the Alexander-de Gennes model. Recent experiments with CdSe tetrapods show that grafted tetrapods are clearly much better dispersed in the polymer matrix than bare tetrapods. My simulations confirm that bare tetrapods tend to aggregate in the matrix of excess polymers, while clustering is significantly reduced after grafting polymer chains to the tetrapods. Finally, I propose a possible extension enabling the simulation of a system with fluctuating volume and demonstrate its basic functionality. This study is originated in a cooperation with an experimental group with the goal to analyze the morphology of these systems in order to find the ideal morphology for hybrid solar cells.
Resumo:
Liquids and gasses form a vital part of nature. Many of these are complex fluids with non-Newtonian behaviour. We introduce a mathematical model describing the unsteady motion of an incompressible polymeric fluid. Each polymer molecule is treated as two beads connected by a spring. For the nonlinear spring force it is not possible to obtain a closed system of equations, unless we approximate the force law. The Peterlin approximation replaces the length of the spring by the length of the average spring. Consequently, the macroscopic dumbbell-based model for dilute polymer solutions is obtained. The model consists of the conservation of mass and momentum and time evolution of the symmetric positive definite conformation tensor, where the diffusive effects are taken into account. In two space dimensions we prove global in time existence of weak solutions. Assuming more regular data we show higher regularity and consequently uniqueness of the weak solution. For the Oseen-type Peterlin model we propose a linear pressure-stabilized characteristics finite element scheme. We derive the corresponding error estimates and we prove, for linear finite elements, the optimal first order accuracy. Theoretical error of the pressure-stabilized characteristic finite element scheme is confirmed by a series of numerical experiments.
Resumo:
In dem Beitrag unternimmt der Autor eine methodisch-theoretische Einordnung der bisher wenig betrachteten Druckgeschichte als historisches Untersuchungsfeld. Das entwickelte Modell differenziert dabei in den Druckakteur, die Drucktechnik und das Druckobjekt, die in einem historischen, sozialen, kulturellen und politischen Kontext interagieren. Anhand von zahlreichen Beispielen wird aufgezeigt, welcher Erkenntnisgewinn sich bei der Auseinandersetzung mit der Druckgeschichte für alle das gedruckte Buch thematisierenden wissenschaftlichen Disziplinen ergeben können.
Resumo:
Die neogene Lagos-Portimão Formation (Unter- bis Mittelmiozän) bildet einen Teil der Steilküste der Algarve (S-Portugal) und besteht aus einer zyklischen Wechsellagerung von Karbonaten und Sand-steinen. Die vorliegende Arbeit bietet ein Modell zur sedimentologischen, faziellen und stratigraphischen Entwicklung dieser Einheit an. Basierend auf Profilen entlang der gesamten lateralen Erstreckung der Einheit wurden verschiedene Gelände- und Labormethoden angewandt, um ein Modell entwickeln zu können. Messungen des Sr87/86-Isotopenverhältnisses sollten Klarheit bezüglich der stratigraphischen Position bringen. Die laterale Korrelation der Profile erfolgte über lithologische und fazielle Ansprachen. Unterstützend wurden einzelne Profile mit einem tragbaren Gammaray-Spektrometer gemessen. Es wurden vier Leithorizonte etabliert, die sich durch fazielle Merkmale und spezielle Fossilführung defi-nieren lassen. Die Mikrofazies wurde qualitativ und quantitativ analysiert. Als statistisches Verfahren wurde unter anderem eine hierarchische Clusteranalyse durchgeführt, über welche fünf Biofaziestypen des warm-temperierten Klimabereichs unterschieden werden. Die Fossilführung wird von Mollusken, Bryozoen und Rotalgen dominiert. Ausnahmen bilden stratigraphisch isolierte Vorkommen von kolo-nialen Korallen, die jedoch keine Riffkörper aufbauen. Die Ergebnisse aller zuvor erwähnten Untersuchungen deuten auf Ablagerungen eines nicht-tropischen Hochenergie-Schelfs hin. Sedimentäre Zyklen sind oftmals unvollständig, es treten Hartgründe und Auf-arbeitungs- bzw- Kondesationshorizonte auf. Die geochemische Altersdatierung weist Alterssprünge und -inversionen auf. Ein Vergleich mit dem SW-australischen Schelf und dem von James et al. (1994) eingeführten Modell des shaved shelf bietet sich aufgrund der Ähnlichkeit der Sedimentgesteine und des ozeanographischen Settings an. Weiterhin werden zeitgleiche bzw. faziell ähnliche Becken vergleichend diskutiert. Das Sedimentationsgeschehen der Lagos-Portimão Formation wird maßgeblich durch eine halokinetisch bedingte unregelmäßige Subsidenz und Hebung beeinflußt. Der Salzdom von Albufeira war während der Sedimentation der Einheit mehrfach in Bewegung. Rutschungspakete, Entlastungsspalten und Sanddikes zeugen davon. Die sequenzstratigraphische Interpretation bietet einen neuen Ansatz, in dem sie von Hochstand-Sandsteinen und Tiefstand-Karbonaten ausgeht.
Resumo:
Der Tauchtourismus übernimmt innerhalb des gesamten internationalen Tourismus in Ägypten eine wichtige Rolle. Besonders in Krisenzeiten sind es die Taucher, die aufgrund der einzigartigen Tauchgebiete weiterhin in das Land kommen und somit einen wesentlichen Beitrag zum Erhalt der Arbeitsplätze und der Infrastruktur beitragen. Doch der Konkurrenzkampf zwischen den Tauchbasen, das derzeit schlechte Image Ägyptens und die Attraktivität weltweiter Tauchdestinationen, zwingt die Betreiber von Tauchbasen dazu, sich einer wandelnden Gästestruktur und deren Reisegewohnheiten anzupassen. In der vorliegenden Untersuchung wird am Beispiel der Tauchbasenbetreiber in Ägypten untersucht, wie kulturelles Handeln eine Rolle bei der Bildung von Vertrauen zwischen einem Anbieter einer touristischen Dienstleistung und dem Kunden einnehmen kann. Als Ausgangspunkt dient dazu das Modell der „Transkulturalität als Praxis“ nach PÜTZ (2004), welches um den Aspekt der internationalen Kooperationsbeziehungen erweitert wird. Es besagt, dass im wirtschaftlichen Handeln zwischen den Akteuren das kulturelle Verständnis eine entscheidende Rolle bei der Bildung von Vertrauen einnimmt. Durch die Fähigkeit, einen kulturellen Blickwinkel in das alltägliche Handeln einzubeziehen, kann ein Unternehmer den Wettbewerbsvorsprung zu seinen Mitkonkurrenten ausbauen.rnrnIm Mittelpunkt des Forschungsinteresses stand dabei die Frage inwieweit die Basenbetreiber über die ihnen zur Verfügung stehenden Möglichkeiten kulturgebundenen Handelns Vertrauen zu den Tauchern generieren. Geschieht die Anwendung aus eigener Initiative heraus oder nur unter dem Konkurrenzdruck? Die Ergebnisse der Studie belegen, dass das Arbeiten im Umfeld kultureller Unterschiede den Blick der Basenbetreiber für die Notwendigkeit einer starken Vertrauensbeziehung zum Kunden von Anfang an geprägt hat. Das Handeln aller Interviewteilnehmer orientiert sich zuerst unbewusst an zahlreichen branchenüblichen Handlungsweisen und Symbolen, stößt aber ab einem bestimmten Punkt an seine Grenzen. Aufgrund von bewusstem kulturellen Handeln ist jedoch die Möglichkeit gegeben, diese Grenzen zu überwinden und individuelle und situationsspezifische Arten der Kundengewinnung in das Handeln einzubeziehen.
Resumo:
Ziel dieses Beitrages ist die Analyse der Anwendung empirischer Tests in der deutschsprachigen Sportpsychologie. Die Ergebnisse vergleichbarer Analysen, bspw. in der Psychologie, zeigen, dass zwischen Anforderungen aus Testkonzepten und empirischer Realität Unterschiede existieren, die bislang für die Sportpsychologie nicht beschrieben und bewertet worden sind. Die Jahrgänge 1994–2007 der Zeitschrift für Sportpsychologie (früher psychologie und sport) wurden danach untersucht, ob Forschungsfragen formuliert, welche Stichprobenart gewählt, welches Testkonzept verwendet, welches Signifikanzniveau benutzt und ob statistische Probleme diskutiert wurden. 83 Artikel wurden von zwei unabhängigen Bewertern nach diesen Aspekten kategorisiert. Als Ergebnis ist festzuhalten, dass in der sportpsychologischen Forschung überwiegend eine Mischung aus Fishers Signifikanztesten sowie Neyman-Pearsons-Hypothesentesten zur Anwendung kommt,das sogenannte „Hybrid-Modell” oder „Null-Ritual”. Die Beschreibung der Teststärke ist kaum zu beobachten. Eine zeitliche Analyse der Beiträge zeigt, dass vor allem die Benutzung von Effektgrößen in den letzten Jahren zugenommen hat. Abschließend werden Ansätze zur Verbesserung und der Vereinheitlichung der Anwendung empirischer Tests vorgeschlagen und diskutiert.
Resumo:
Ausgehend von einer Skizzierung der französischen Hochschullandschaft wird zunächst die Reformdebatte beleuchtet, die vor allem eine stärkere Hierarchisierung des Hochschulsystems, aber auch einen Ausbau und eine Stärkung der Elite-Universitäten diskutiert. Im Weiteren wird das Modell des MA-Studiengangs für Geschichte in Tours vorgestellt. Abschließend werden mögliche Konsequenzen für den deutschen Reformprozess erörtert; folgende Aspekte fallen dabei ins Auge: Die Verschulung der Universität muss in eine stärkere Differenzierung zwischen BA- und MA-Studiengang hinauslaufen, auch die Rolle des Hochschullehrers sollte neu überdacht werden. In Deutschland gibt es allein aufgrund der föderalen Struktur viel mehr Potential für Experimente; hier wie in Frankreich bleibt jedoch die Lehrer-Ausbildung aus dem Reformprozess (vorerst) ausgeklammert. Die Verschulung ist insgesamt als problematisch zu betrachten, vor allem wenn sie bis in die Promotionsphase hineinreicht. Die Elite-Förderung ist in Frankreich sehr viel nachhaltiger organisiert als in Deutschland und prägt in seiner Ausstrahlung viel stärker auch das übrige Bildungssystem, im Positiven wie im Negativen. Nachahmenswert scheint ein Master-Modell, das neben der Spezialisierung auch die Auslandskooperation direkt in den Studiengang integriert.
Resumo:
Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.