994 resultados para Konstnärsbröderna von Wrights dagböcker 1-7


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Matrix metalloproteinases are the components of the tumour microenvironment which play a crucial role in tumour progression. Matrix metalloproteinase-7 (MMP-7) is expressed in a variety of tumours and the expression is associated with an aggressive malignant phenotype and poor prognosis. A role for MMP-7 in the immune escape of tumours has been postulated, but the mechanisms are not clearly understood. The present study was focused on identifying physiological inactivators of MMP-7 and also to unravel the mechanisms involved in MMP-7 mediated immune escape. This study shows that human leukocyte elastase (HLE), secreted by polymorphonuclear leukocytes cleaves MMP-7 in the catalytic domain as revealed by N-terminal sequencing. Further analysis demonstrates that the activity of MMP-7 was drastically decreased after HLE treatment in a time and dose dependent manner. MMP-7 induces apoptosis resistance in tumour cells by cleaving CD95 and CD95L. The effect of HLE on MMP-7 mediated apoptosis resistance was analysed. In vitro stimulation of apoptosis by anti-Apo-1 (anti-CD95 antibody) and the chemotherapeutic drug doxorubicin is reduced by MMP-7. Also tumour specific cytotoxic T cells do not effectively kill tumour cells in the presence of MMP-7. This study revealed that HLE abrogates the negative effect of MMP-7 on apoptosis induced by CD95 stimulation, doxorubicin or cytotoxic T cells and restores apoptosis sensitivity of tumour cells. To gain insight into the possible immune modulatory functions of MMP-7, experiments were performed to identify new immune relevant substrates. The human T cell line, Jurkat, was selected for these studies. Hsc70 which is involved in uncoating of clathrin vesicles was found in the supernatants of the MMP-7 treated cells indicating a modulatory role of MMP-7 on endocytosis. Further studies demonstrated that MMP-7 leads to decreased clathrin staining in HEK293, HepG2, Jurkat, CD4+ T cells and dendritic cells. Results also show MMP-7 treatment increased surface expression of cytotoxic T lymphocyte associated protein-4 (CTLA-4) which accumulated due to inhibition of the clathrin mediated internalization in CD4+CD25+ cells.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Die vorliegende Dissertation beschreibt die Verschmelzung der Konzepte von konjugierten Polyelektrolyten und amphiphilen Kammpolymeren in Form von konjugierten, Poly(2,7-carbazol)-basierenden Polyelektrolytkammpolymeren mit Poly(L-lysin)seitenketten sowie Alkyl- oder Polyethylenglykolsubstituenten. Die Synthese wurde durch die Suzuki-Polykondensation von monodispersen Makromonomeren erreicht. Hierbei fand die Precursor-Synthesestrategie Anwendung. In diesem Ansatz war die ε-Aminofunktion des Lysins mit einer Benzoyloxycarbonylschutzgruppe geschützt. Der Aufbau der benötigten monodispersen Makromonomere erfolgte durch die Kupplung von Poly(L-lysin)ketten an den Carbazolbaustein mittels eines aktivierten Esters. Eine Besonderheit der hergestellten Kammpolymere lag in den konformativen Eigenschaften seiner einzelnen Komponenten. Dabei konnte die Konformation der Poly(L-lysin)seitenketten infolge ihres Polyelektrolyt- und Peptidcharakters gezielt mit Hilfe des pH-Wertes und der Ionenstärke variiert werden, wohingegen das konjugierte Rückgrat seine steife Konformation beibehielt. Infolge des Polyelektrolytcharakters zeigte sich zudem, dass die Polymere in sauren und neutralen, wässrigen Lösungen zu großen Teilen in Form von Domänenstrukturen auftraten, während im Basischen eine sofortige Aggregation eintrat. Ein weiteres Merkmal der vorgestellten Polyelektrolytkammpolymere war ihr amphiphiler Charakter. Diese Amphiphilie der in dieser Arbeit vorgestellten Polyelektrolytkammpolymere beeinflusste dabei maßgeblich ihre unstrukturierte Anordnung in Lösung, in der festen Phase sowie an Oberflächen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wird eine kontinuierliche, kohärente Strahlungsquelle bei 121,56nm, der Lyman-alpha Linie in Wasserstoff, vorgestellt. Diese Lyman-alpha Quelle soll zur zukünftigen Laserkühlung von Antiwasserstoff dienen. Die Strahlung wird durch Vier-Wellen-Mischen in Quecksilberdampf produziert. Dabei wird ein Festkörperlasersystem zur Erzeugung der Fundamentalstrahlen eingesetzt. Zur Erhöhung der nichtlinearen Suszeptibilität wird die 6^1S-7^1S Zwei-Photonen-Resonanz ausgenutzt. Zusätzlich wird mit Hilfe eines durchstimmbaren ultravioletten Lasersystems die 6^1S-6^3P Ein-Photon-Resonanz genutzt, was es erlaubt, die nichtlineare Suszeptibilität des Mischprozesses um Größenordnungen zu erhöhen. Um den Einfluss der 6^1S-6^3P Ein-Photon-Resonanz zu untersuchen, wurden zunächst die Phasenanpassungstemperaturen bei verschiedenen Verstimmungen der ultravioletten Strahlung zur 6^3P Resonanz vermessen und festgestellt, dass kleinere Verstimmungen zu niedrigeren Phasenanpassungstemperaturen führen. Es konnte sowohl theoretisch wie auch experimentell gezeigt werden, dass diese niedrigeren Phasenanpassungstemperaturen bei kleinen Verstimmungen der Erhöhung der Lyman-alpha Erzeugung durch die größere nichtlineare Suszeptibilität bei kleinen Verstimmungen entgegenwirken. Bei immer kleineren Verstimmungen zur 6^3P Resonanz limitiert die Absorption der ultravioletten Strahlung die Lyman-alpha Erzeugung. Ein positiver Effekt der niedrigeren Phasenanpassungstemperaturen ist, dass es möglich wird, auf das bisher nötige Puffergas in der Quecksilber-Dampfzelle zu verzichten, was die Lyman-alpha Erzeugung um einen Faktor 1,7 erhöht. Damit war es möglich, die bisherige Effizienz der Lyman-alpha Erzeugung zu verbessern. Es wurde eine Lyman-alpha Leistung von 0,3nW erreicht. Zusätzlich zum Einfluss der 6^3P Resonanz auf die Lyman-alpha Erzeugung wurde ein weiterer Effekt beobachtet. Durch die Nähe der 6^1S-6^3P Ein-Photon-Resonanz wird auch mehr Besetzung in das obere 7^1S Niveau der Zwei-Photonen-Resonanz gepumpt. Dadurch konnte erstmals eine kontinuierliche Lasertätigkeit auf der 6^1P-7^1S Linie in Quecksilber bei 1014nm beobachtet werden.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wurden die vielfältigen Anwendungsmöglichkeiten von Carbazol-reichen Verbindungen in unterschiedlichen Architekturen von pi-konjugierten Materialien untersucht. Die Darstellung der Makrozyklen in Kapitel 1 erfolgte über eine templatunterstützte Synthese, da die ausschließlich über ihre para-Position verknüpften Einheiten einen Zugang über ihre Geometrie nicht erlaubten. Cyclododeca-2,7-fluoren wurde als zyklische Modellverbindung für die zahlreichen bekannten linearen Oligo- und Polyfluorene dargestellt, um den Einfluss der Ringstruktur auf die optischen Eigenschaften dieser blau emittierenden Verbindungen zu untersuchen. Motiviert von den geringen Ausbeuten bei der Zyklisierung des Rings unter Yamamoto-Bedingungen wurde nach einer alternativen Kupplungsreaktion gesucht, die den Zugang zu größeren Substanzmengen erlaubt. Die Einführung von terminalen Ethinylgruppen an die zu verknüpfenden Bausteine erlaubte über die Glaser-Eglinton-Reaktion nicht nur eine Verbesserung der Reaktionsausbeute um den Faktor 10, sondern gleichzeitig auch die Erweiterung des Durchmessers auf rund 5 nm. Demonstriert wurde dies anhand der Darstellung von Cyclo[tetrakis(2,7-diethinyltriscarbazol)] und Cyclo[tetrakis(2,7-diethinyltrisfluoren)].rnDer zweite Abschnitt der Dissertation befasste sich mit ausgedehnten zweidimensionalen Strukturen, zu denen auch mehrsträngige Polymere zählen. Für die Darstellung eines Doppelstrang-Polymers mit hoher Periodizität in den beiden in regelmäßigen Abständen verknüpften Strängen wurde ein neues Konzept entwickelt, dass den Zugang zu solchen Verbindungen erlauben sollte. Dieses basierte auf einem vierfach funktionalisierten Carbazol-Makromonomer. Die Polymerisationen wurden in zwei Schritten über Glaser-Eglinton-Reaktionen durchgeführt. Um unkontrollierte Kupplungen zu vermeiden, wurden zwei der vier reaktiven Positionen am Monomer zunächst über Schutzgruppen maskiert und nach der ersten Polymerisation wieder aktiviert. Neben diesem Ansatz über oxidative Ethinylkupplungen wurde auch eine Organometall-Variante mit einem Platin-Komplex im Polymerrückgrat vorgestellt. rnIm dritten Kapitel wurde die Darstellung von Donor-Akzeptor-Polymeren mit niedriger Bandlücke für den Einsatz in organischen Solarzellen besprochen. Im Gegensatz zu den bisherigen Ansätzen in der Literatur wurden hier ganz gezielt Donor- und Akzeptor-Einheiten mit einer Länge von mindestens 1,5 nm synthetisiert und kombiniert, um zu untersuchen, welche Auswirkungen der Einsatz solcher Makromonomere auf die Eigenschaften der Materialien hat. Dabei bestand der Akzeptor-Baustein in drei Polymeren aus Bis[2,7-di-(4,4,5,5-tetramethyl-1,3,2-dioxaborolan-2-yl)-9,9,18,18-tetraoctylindeno[1,2-b]-yl]-indeno[1,2-b]fluoren-12,15-dion, während die Donor-Stärke durch den Übergang von einem reinen leiterverbrückten Carbazol-Monomer über eine gemischte Carbazol-Thiophen-Einheit hin zu einem reinen Thiophen-Precursor variiert wurde. Dabei zeigte das Polymer mit Thiophen als Donor den höchsten Zellwirkungsgrad von 0,41 %.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The dominant process in hard proton-proton collisions is the production of hadronic jets.rnThese sprays of particles are produced by colored partons, which are struck out of their confinement within the proton.rnPrevious measurements of inclusive jet cross sections have provided valuable information for the determination of parton density functions and allow for stringent tests of perturbative QCD at the highest accessible energies.rnrnThis thesis will present a measurement of inclusive jet cross sections in proton-proton collisions using the ATLAS detector at the LHC at a center-of-mass energy of 7 TeV.rnJets are identified using the anti-kt algorithm and jet radii of R=0.6 and R=0.4.rnThey are calibrated using a dedicated pT and eta dependent jet calibration scheme.rnThe cross sections are measured for 40 GeV < pT <= 1 TeV and |y| < 2.8 in four bins of absolute rapidity, using data recorded in 2010 corresponding to an integrated luminosity of 3 pb^-1.rnThe data is fully corrected for detector effects and compared to theoretical predictions calculated at next-to-leading order including non-perturbative effects.rnThe theoretical predictions are found to agree with data within the experimental and theoretic uncertainties.rnrnThe ratio of cross sections for R=0.4 and R=0.6 is measured, exploiting the significant correlations of the systematic uncertainties, and is compared to recently developed theoretical predictions.rnThe underlying event can be characterized by the amount of transverse momentum per unit rapidity and azimuth, called rhoue.rnUsing analytical approaches to the calculation of non-perturbative corrections to jets, rhoue at the LHC is estimated using the ratio measurement.rnA feasibility study of a combined measurement of rhoue and the average strong coupling in the non-perturbative regime alpha_0 is presented and proposals for future jet measurements at the LHC are made.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Am Mainzer Mikrotron MAMI wurde ein neuartiges Interferometer entwickelt und getestet, mit dem magneto-optische Effekte an dünnen, freitragenden Folien von 3d-Übergangsmetallen wie Eisen, Kobalt oder Nickel an den L_{2,3}-Absorptionskanten (im Spektralbereich der weichen Röntgenstrahlung) gemessen werden können. Es handelt sich um eine Weiterentwicklung eines an MAMI erprobten Interferometers, das im wesentlichen aus einer kollinearen Anordnung zweier identischer Undulatoren, zwischen die die dünne Probefolie eingebracht wird, und einem Gitterspektrometer besteht. Aus den als Funktion des Abstands der Undulatoren beobachtbaren Intensitätsoszillation lassen sich das Dekrement des Realteils δ und der Absorptionskoeffizient β des komplexen Brechungsindex bestimmen.rnIm Rahmen der vorliegenden Arbeit wurde die Apparatur derart weiterentwickelt, dass auch die magnetisch zirkulare Doppelbrechung Δδ und der magnetisch zirkulare Dichroismus Δβ an den L_{2,3}-Absorptionskanten von Übergangsmetallen gemessen werden können. Der zweite Undulator wurde um die Elektronenstrahlachse um den Winkel Ψ = ±107° drehbar gemacht. Damit dient er auch als Analysator der aus der Folie austretenden elliptisch polarisierten weichen Röntgenstrahlung, für die - wie bei der Faraday-Rotation - die Polarisationsebene gedreht ist. Weiterhin kann die Spaltbreite der 10-poligen Hybrid-Undulatoren mit einer Periodenlänge von 12 mm und damit der Undulatorparameter über eine Antriebsmechanik kontinuierlich variiert werden, wodurch eine optimale Anpassung der Amplituden der Undulatorstrahlung aus den beiden Undulatoren möglich wird. Der maximale Undulatorparameter beträgt K = 1.1. Auch das Spektrometer, das auf einem selbstfokussierenden Gitter mit variierter Liniendichte (im Mittel 1400 Linien / mm) basiert, wurde weiterentwickelt. Als Detektor kommt jetzt eine fensterlose CCD mit 1024 x 1024 Pixeln und einer Pixelgröße von 13 μm x 13 μm zum Einsatz, die im Bildmodus betrieben wird, was die gleichzeitige Messung eines Energieintervalls von ca. 50 eV ermöglicht. Die totale Linienbreite wurde bei einer vertikalen Strahlfleckausdehnung von σ_y = 70 μm (rms) am Neon 1s-3p Übergang bei (867.18 ±0.02) eV zu Δħω = (0.218 ±0.002) eV (FWHM) gemessen. Das hohe Auflösungsvermögen von 4000 und die Möglichkeit der Eichung gegen den 1s-3p Übergang von Neon wurden ausgenutzt, um die Energie der Maxima an den Absorptionskanten von Nickel (weiße Linien) neu zu bestimmen. Die Ergebnisse E_{L_2}=(869.65_{-0.16}^{+0.27}) eV und E_{L_3}=(852.37_{-0.11}^{+0.16}) eV stellen eine Verbesserung früherer Messungen dar, die große Streuungen aufwiesen.rnAus systematischen Messungen als Funktion des Abstandes der Undulatoren und des Drehwinkels Ψ wurden die magnetisch zirkulare Doppelbrechung Δδ im Energiebereich 834 eV ≤ ħω ≤ 885 eV an einer freitragenden, bis zur Sättigung magnetisierten Nickelfolie der Dicke von (96.4 ±2.7) nm gemessen. Sowohl das Auflösungsvermögen als auch die Genauigkeit der Messungen für Δδ übersteigen bekannte Literaturangaben signifikant, so dass eine bisher nicht bekannte Feinstruktur gefunden werden konnte. Außerdem wurde der Betrag des magnetisch zirkularen Dichroismus |Δβ| im Bereich des Maximums an der L_3-Absorptionskante mit hoher Genauigkeit gemessen.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In hadronischen Kollisionen entstehen bei einem Großteil der Ereignisse mit einem hohen Impulsübertrag Paare aus hochenergetischen Jets. Deren Produktion und Eigenschaften können mit hoher Genauigkeit durch die Störungstheorie in der Quantenchromodynamik (QCD) vorhergesagt werden. Die Produktion von \textit{bottom}-Quarks in solchen Kollisionen kann als Maßstab genutzt werden, um die Vorhersagen der QCD zu testen, da diese Quarks die Dynamik des Produktionsprozesses bei Skalen wieder spiegelt, in der eine Störungsrechnung ohne Einschränkungen möglich ist. Auf Grund der hohen Masse von Teilchen, die ein \textit{bottom}-Quark enthalten, erhält der gemessene, hadronische Zustand den größten Teil der Information von dem Produktionsprozess der Quarks. Weil sie eine große Produktionsrate besitzen, spielen sie und ihre Zerfallsprodukte eine wichtige Rolle als Untergrund in vielen Analysen, insbesondere in Suchen nach neuer Physik. In ihrer herausragenden Stellung in der dritten Quark-Generation könnten sich vermehrt Zeichen im Vergleich zu den leichteren Quarks für neue Phänomene zeigen. Daher ist die Untersuchung des Verhältnisses zwischen der Produktion von Jets, die solche \textit{bottom}-Quarks enthalten, auch bekannt als $b$-Jets, und aller nachgewiesener Jets ein wichtiger Indikator für neue massive Objekte. In dieser Arbeit werden die Produktionsrate und die Korrelationen von Paaren aus $b$-Jets bestimmt und nach ersten Hinweisen eines neuen massiven Teilchens, das bisher nicht im Standard-Modell enthalten ist, in dem invarianten Massenspektrum der $b$-Jets gesucht. Am Large Hadron Collider (LHC) kollidieren zwei Protonenstrahlen bei einer Schwerpunktsenergie von $\sqrt s = 7$ TeV, und es werden viele solcher Paare aus $b$-Jets produziert. Diese Analyse benutzt die aufgezeichneten Kollisionen des ATLAS-Detektors. Die integrierte Luminosität der verwendbaren Daten beläuft sich auf 34~pb$^{-1}$. $b$-Jets werden mit Hilfe ihrer langen Lebensdauer und den rekonstruierten, geladenen Zerfallsprodukten identifiziert. Für diese Analyse müssen insbesondere die Unterschiede im Verhalten von Jets, die aus leichten Objekten wie Gluonen und leichten Quarks hervorgehen, zu diesen $b$-Jets beachtet werden. Die Energieskala dieser $b$-Jets wird untersucht und die zusätzlichen Unsicherheit in der Energiemessung der Jets bestimmt. Effekte bei der Jet-Rekonstruktion im Detektor, die einzigartig für $b$-Jets sind, werden studiert, um letztlich diese Messung unabhängig vom Detektor und auf Niveau der Hadronen auswerten zu können. Hiernach wird die Messung zu Vorhersagen auf nächst-zu-führender Ordnung verglichen. Dabei stellt sich heraus, dass die Vorhersagen in Übereinstimmung zu den aufgenommenen Daten sind. Daraus lässt sich schließen, dass der zugrunde liegende Produktionsmechanismus auch in diesem neu erschlossenen Energiebereich am LHC gültig ist. Jedoch werden auch erste Hinweise auf Mängel in der Beschreibung der Eigenschaften dieser Ereignisse gefunden. Weiterhin können keine Anhaltspunkte für eine neue Resonanz, die in Paare aus $b$-Jets zerfällt, in dem invarianten Massenspektrum bis etwa 1.7~TeV gefunden werden. Für das Auftreten einer solchen Resonanz mit einer Gauß-förmigen Massenverteilung werden modell-unabhängige Grenzen berechnet.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit wurde zum Einen, die Interaktionsphysiologie zwischen verschiedenen DC-Populationen und naiven sowie regulatorischen T-Zellen analysiert. Dabei wurde die Kontaktdauer und Häufigkeit bestimmt sowie die daraus folgende Aktivierung der T-Zellen in einer 3D-Kollagenmatrix. rnZum zweiten wurde die Rolle des Aktin-Motorproteins Myosin 9b, bei der Zellmigration sowie bei der DC-T-Zellinteraktion und der Ausbildung von Immunantworten untersucht. Myo9b KO DC weisen in vitro in einer Kollagenmatrix sowie in vivo einen gestörten Migrationsphänotyp auf. Auch die Interaktion mit T-Zellen ist verändert und sie induzieren eine reduzierte T-Zellaktivierung in einer 3D-Umgebung sowie eine geringere Immunreaktion in vivo. Die Zugabe pharmakologischer Inhibitoren der Rho-Signalkaskade konnte die Migration und das T-Zellstimulierungspotential wiederherstellen. rnZum Dritten wurde analysiert, welche Bedeutung die konstitutive Aktivierung des Adhäsionsmoleküls LFA-1 auf DC (LFA-1 d/d) hat. LFA-1 d/d DC zeigten verlängerte Interaktionszeiten mit T-Zellen, gefolgt von einer reduzierten T-Zellproliferation in einer Kollagenmatrix. Durch die Inhibition von aktivem LFA-1 auf den DC mittels blockierender Antikörper konnte eine Normalisierung der Interaktionsparameter und T-Zellproliferation auf Wildtyp-Niveau wiederhergestellt werden. Durch ein Ausschalten von CYTIP in WT DC und dem damit einhergehenden Verlust der Deaktivierbarkeit von LFA-1 über Cytohesin wurde ebenfalls eine erhöhte Interaktionszeit mit T-Zellen und eine reduzierte T-Zellproliferation beobachtet.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In dieser Arbeit sollte der Einfluss einer Überproduktion von humaner Superoxiddismutase 1 (hSOD1) auf die Spiegel der DNA-Schäden in verschiedenen Geweben von transgenen Mäusen untersucht werden. Tiere die eine Defizienz des Ogg1- und Csb- Proteins aufweisen und deshalb oxidative Purinmodifikationen nicht oder nur schwer reparieren können, akkumulieren 8-oxoG im Laufe ihres Lebens (Osterod, et al. 2001). Aus diesem Grund sind diese ein gutes Modell, um protektive Eigenschaften von Antioxidantien wie z.B. Substanzen oder Enzymen zu untersuchen. Fusser, et al. 2011 konnten beispielsweise zeigen, dass das pflanzliche Polyphenol Resveratrol die endogenen Spiegel an 8-oxoG sowie die spontanen Mutatiosraten im Lac I - Gen senken kann. Um den Einfluss von hSOD1 in vivo zu untersuchen, wurden in zwei Zuchtschritten 4 Mausgenotypen generiert, nämlich (Csb -/- Ogg1 -/- und Csb +/- Ogg1 +/- Mäuse jeweils mit ohne hSOD1 Überexpression). Diese wurden in verschiedenen Altersstufen auf die Basalspiegel an oxidativen Schäden (Einzelstrangbrüche und Fpg-sensitive Läsionen) in der Leber, der Niere und der Milz untersucht. Die Genotypen wurden zunächst charakterisiert und die hSOD1-Überexpression mittels qRT-PCR, Western Blot und Enzymaktivitätsbestimmung verifiziert. Es konnte an diesen Tieren erstmalig gezeigt werden, dass SOD die Generierung von DNA-Schäden in vivo mit zunehmendem Alter der Tiere senkt und dass deshalb Superoxid eine der reaktiven Sauerstoffspezies ist, die unter physiologischen Bedingungen für die DNA-Schäden verantwortlich ist. Außerdem kann ein möglicher toxischer Effekt der Überproduktion von SOD ausgeschlossen werden. Erhöhte Spiegel an oxidativen DNA-Schäden durch womöglich erhöhte Spiegel an H2O2 konnten in dieser Studie nicht beobachtet werden. Eine Messung der Genexpression anderer antioxidativer Enzyme wie Katalase, SOD2 und SOD3, GPX oder HO1 sind an diesem Effekt nicht beteiligt. Auch konnte kein Einfluss des redoxsensitiven Transkriptionsfaktors Nrf2 gezeigt werden. rnUm mögliche Quellen der für die oxidativ gebildeten DNA-Schäden verantwortlichen ROS zu identifizieren, wurde der Einfluss des Dopaminstoffwechsels untersucht. Während des Dopaminmetabolismus werden intrazellulär Reaktive Sauerstoffspezies (H2O2 und O2.-) gebildet und tragen sehr wahrscheinlich zur Entstehung von neurodegenerativen Erkrankungen wie Parkinson bei. In dem gängigen Parkinson-Zellkulturmodell SH-SY5Y konnte keine Erhöhung von oxidativen Schäden in nukleärer DNA nach Dopaminbehandlung nachgewiesen werden. Eine Überexpression der Dopaminmetabolisierenden Enzyme MAO-A und MAO-B zeigen bei niedrigen Dosen Dopamin eine leichte jedoch nicht signifikante Erhöhung der Fpg-sensitiven Modifikationen. Die Überproduktion des Dopamintransporters zeigte keinen Effekt nach Dopaminzugabe. Es kann geschlussfolgert werden, dass durch erhöhte MAO-A und MAO-B endogen ROS gebildet werden, die die Bildung Fpg-sensitiver Läsionen hervorrufen. Bei hohen Dosen und langer Inkubationszeit steht die Dopaminautoxidation, anschließende Neuromelaninbildung und als Konsequenz Apoptose im Vordergrund.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In den letzten Jahren stieg in Deutschland der Gebrauch bzw. Missbrauch von Opioid-Analgetika zunehmend an. Das entwickelte Verfahren sollte unter Einbeziehung neuer Substanzen möglichst viele verschiedene Opioide und auch ihre pharmakologisch aktiven Stoffwechselprodukte berücksichtigen.rnVor Analyse wurden Blut-, Serum- oder Urinproben mit Phosphatpuffer versetzt und mittels Festphasenextraktion an C18-Säulenmaterial aufgearbeitet. Post-Mortem-Gewebematerial wurde mit isotonischer Kochsalzlösung versetzt, homogenisiert und anschließend durch eine Festphasenextraktion aufgereinigt. Haarproben wurden nach Zerkleinerung mit Methanol unter Ultrabeschallung extrahiert. Die Flüssigchromatographie gekoppelt mit Tandem-Massenspektrometrie (Elektrosprayionisation im positiven Modus) erwies sich als geeignetes Verfahren für die simultane Bestimmung der Opioide in biologischem Probenmaterial (Körperflüssigkeiten, Gewebe und Haaren). Der Multi-Analyt Assay erlaubt die quantitative Analyse von 35 verschiedenen Opioiden. Die Analyten wurden durch eine Phenyl-Hexyl Säule und einen Wasser/Acetonitril Gradienten durch eine UPLC 1290 Infinity gekoppelt mit einem 6490 Triple Quadrupol von Agilent Technologies separiert.rnDie LC/MS Methode zur simultanen Bestimmung von 35 Opioiden in Serum und Haaren wurde nach den Richtlinien der Gesellschaft für Toxikologische und Forensische Chemie (GTFCh) validiert. Im Fall der Serumvalidierung lagen die Nachweisgrenzen zwischen 0.02 und 0.6 ng/ml und die Bestimmungsgrenzen im Bereich von 0.1 bis 2.0 ng/ml. Die Kalibrationskurven waren für die Kalibrationslevel 1 bis 6 linear. Wiederfindungsraten lagen für alle Verbindungen zwischen 51 und 88 %, außer für Alfentanil, Bisnortiliidn, Pethidin und Morphin-3-Glucuronid. Der Matrixeffekt lag zwischen 86 % (Ethylmorphin) und 105 % (Desomorphin). Für fast alle Analyten konnten akzeptable Werte bei der Bestimmung der Genauigkeit und Richtigkeit nach den Richtlinien der GTFCh erhalten werden. Im Fall der Validierung der Haarproben lagen die Nachweisgrenzen zwischen 0.004 und 0.6 ng/Probe und die Bestimmungsgrenzen zwischen 0.1 ng/Probe und 2.0 ng/Probe. Für die Kalibrationslevel 1 bis 6 waren alle Kalibrationsgeraden linear. Die Wiederfindungsraten lagen für die Opioide im Bereich von 73.5 % (Morphin-6-Glucuronid) und 114.1 % (Hydrocodon). Die Werte für die Bestimmung der Richtigkeit lagen zwischen - 6.6 % (Methadon) und + 11.7 % (Pholcodin). Präzisionsdaten wurden zwischen 1.0 % für Dextromethorphan und 11.5 % für Methadon ermittelt. Die Kriterien der GTFCh konnten bei Ermittlung des Matrixeffekts für alle Substanzen erfüllt werden, außer für 6-Monoacetylmorphin, Bisnortilidin, Meperidin, Methadon, Morphin-3-glucuronid, Morphin-6-glucuronid, Normeperidin, Nortilidin und Tramadol.rnZum Test des Verfahrens an authentischem Probenmaterial wurden 206 Proben von Körperflüssigkeiten mit Hilfe der simultanen LC/MS Screening Methode untersucht. Über 150 Proben wurden im Rahmen von forensisch-toxikologischen Untersuchungen am Instituts für Rechtsmedizin Mainz analysiert. Dabei konnten 23 der 35 Opioide in den realen Proben nachgewiesen werden. Zur Untersuchung der Pharmakokinetik von Opioiden bei Patienten der anästhesiologischen Intensivstation mit Sepsis wurden über 50 Blutproben untersucht. Den Patienten wurde im Rahmen einer klinischen Studie einmal täglich vier Tage lang Blut abgenommen. In den Serumproben wurde hauptsächlich Sufentanil (0.2 – 0.8 ng/ml in 58 Fällen) und Piritramid (0.4 – 11 ng/ml in 56 Fällen) gefunden. Außerdem wurden die Proben von Körperflüssigkeiten und Gewebe von 13 verschiedenen Autopsiefällen mit Hilfe des Multi-Analyt Assays auf Opioide untersucht.rnIn einem zweiten Schritt wurde die Extraktions- und Messmethode zur Quantifizierung der 35 Opioide am Forensic Medicine Center in Ho Chi Minh City (Vietnam) etabliert. Insgesamt wurden 85 Herzblutproben von Obduktionsfällen mit Verdacht auf Opiatintoxikation näher untersucht. Der überwiegende Teil der untersuchten Fälle konnte auf eine Heroin- bzw. Morphin-Vergiftung zurückgeführt werden. Morphin wurde in 68 Fällen im Konzentrationsbereich 1.7 – 1400 ng/ml und der Heroinmetabolit 6-Monoactetylmorphin in 34 Fällen (0.3 – 160 ng/ml) nachgewiesen werden.rnSchließlich wurden noch 15 Haarproben von Patienten einer psychiatrischen Klinik, die illegale Rauschmittel konsumiert hatten, mit Hilfe der simultanen Opioid-LC/MS Screeningmethode gemessen. Die Ergebnisse der Untersuchung wurden mit früheren Auswertungen von gaschromatographischen Analysen verglichen. Es zeigte sich eine weitgehende Übereinstimmung der Untersuchungsergebnisse für die Opioide 6-Monoacetylmorphin, Morphin, Codein, Dihydrocodein und Methadon. Mit der LC/MS Methode konnten weitere Substanzen, wie zum Beispiel Bisnortilidin, Dextromethorphan und Tramadol in den Haarproben gefunden werden, die bislang nicht entdeckt worden waren.rn

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.