278 resultados para relativ tryckkontrast


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der vorliegenden Arbeit handelt es sich um ein Überblickswerk zum Christusbild, dem Aussehen Christi in der deutschen Bildkunst des 19. Jahrhunderts und dessen Wandlungen. Grundlage der Arbeit bildet eine von der Autorin zusammengetragene Materialsammlung und deren Auswertung, basierend auf der Kenntnis von Originalen sowie der Sichtung von Literatur (insbesondere von Lexika, Museums- und Ausstellungskatalogen, Werkverzeichnissen sowie maßgeblichen deutschen Kunstzeitschriften des 19. Jahrhunderts). Das hieraus resultierende systematische Bildverzeichnis umfasst 1.914 Werke in Form von Staffeleibildern, Druckgraphik, wandgebundenen Gemälden (und auch Skulpturen); davon sind 729 mit Abbildungen in der Arbeit dokumentiert. In alphabetischer Reihenfolge abgefasst, enthält das Verzeichnis zu jedem Eintrag Kurzinformationen zu Werk und Künstler, sowie Literatur- und ggf. Abbildungsnachweise. Auf dieser Basis geht die Untersuchung über den bisher relativ kleinen Kreis einschlägig bekannter Christusbilder weit hinaus und gibt erstmals einen umfassenden und für das 19. Jahrhundert repräsentativen Überblick.rnDer auf dieses Material gestützte Hauptteil befasst sich mit der eingehenden Betrachtung der „Grundtypen“ des Christusbildes, womit das Aussehen Christi (Physiognomie, Gesamtgestalt, Gewandung, Habitus und Gestik) gemeint ist. Schwerpunkte der Arbeit bilden zunächst das an der Renaissance (insbesondere an Raffael) orientierte „milde“ Christusbild des Klassizismus und die „inniglich-schöne“ Idealgestalt der Romantik (variiert auch mit altdeutschen Elementen), aus der schließlich das bis in die Gegenwart verwendete, kitschig-süßliche Devotionalienbild resultierte. Eine historisierende, ethnologische Rekonstruktion eines „jüdischen“ Jesus, erschien besonders in der „Orientmalerei“ seit den vierziger Jahren des 19. Jahrhunderts. Die Ablehnung und Abgrenzung der Orientmalerei führte zu einer „historischen Reformationsmalerei“ mit altdeutschen Elementen und auch teilweise zu einer Tendenz der „Germanisierung“ des Bildes Jesu mit genrehaften Zügen. Zum Jahrhundertende hin wurden außerdem vielfältige Versuche beobachtet, den Gottmenschen Jesus in „zeitgenössischem“ Aussehen volksnah in die Gegenwart der Gläubigen einzubinden. Im Symbolismus traten hingegen heroisierende Tendenzen auf bis hin zu einer „Entwirklichung“ der Gestalt Christi. Zusammenfassende Beobachtungen zu den häufig verwendeten und „beliebten“ Themen der Christusdarstellung im 19. Jahrhundert runden die Arbeit ab, in der eine bislang ungekannte Differenzierung und Vielfalt der Darstellungsmöglichkeiten Christi in der religiösen Kunst des 19. Jahrhunderts aufgezeigt werden konnte.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gewebe, Zellen und speziell Zellkompartimente unterscheiden sich in ihrer Sauerstoffkonzentration, Stoffwechselrate und in der Konzentration an gebildeten reaktiven Sauerstoffspezies. Um eine mögliche Änderung in der Aminosäurennutzung durch den Einfluss von Sauerstoff und seinen reaktiven Spezies untersuchen zu können wurden, Bereiche bzw. Kompartimente der menschlichen Zelle definiert, die einen Referenzrahmen bildeten und bekannt dafür sind, einen relativ hohen Grad an reaktiven Sauerstoffspezies aufzuweisen. Aus dem Vergleich wurde deutlich, dass vor allem die beiden redox-aktiven und schwefeltragenden Aminosäuren Cystein und Methionin durch eine besondere Verteilung und Nutzung charakterisiert sind. Cystein ist hierbei diejenige Aminosäure mit den deutlichsten Änderungen in den fünf untersuchten Modellen der oxidativen Belastung. In all diesen Modellen war die Nutzung von Cystein deutlich reduziert, wohingegen Methionin in Proteinen des Mitochondriums und der Elektronentransportkette angereichert war. Dieser auf den ersten Blick paradoxe Unterschied zwischen Cystein und Methionin wurde näher untersucht, indem die differenzierte Methioninnutzung in verschiedenen Zellkompartimenten von Homo sapiens charakterisiert wurde.rnDie sehr leicht zu oxidierende Aminosäure Methionin zeigt ein ungewöhnliches Verteilungsmuster in ihrer Nutzungshäufigkeit. Entgegen mancher Erwartung wird Methionin in zellulären Bereichen hoher oxidativer Belastung und starker Radikalproduktion intensiv verwendet. Dieses Verteilungsmuster findet man sowohl im intrazellulären Vergleich, als auch im Vergleich verschiedener Spezies untereinander, was daraufhin deutet, dass es einen lokalen Bedarf an redox-aktiven Aminosäuren gibt, der einen sehr starken Effekt auf die Nutzungshäufigkeit von Methionin ausübt. Eine hohe Stoffwechselrate, die im Allgemeinen mit einer erhöhten Produktion von Oxidantien assoziiert wird, scheint ein maßgeblicher Faktor der Akkumulation von Methionin in Proteinen der Atmungskette zu sein. Die Notwendigkeit, oxidiertes Antioxidans wieder zu reduzieren, findet auch bei Methionin Anwendung, denn zu Methioninsulfoxid oxidiertes Methionin wird durch die Methioninsulfoxidreduktase wieder zu Methionin reduziert. Daher kann die spezifische Akkumulation von Methionin in Proteinen, die verstärkt reaktiven Sauerstoffspezies ausgesetzt sind, als eine systematische Strategie angesehen werden, um andere labile Strukturen vor ungewollter Oxidation zu schützen. rnDa Cystein in allen untersuchten Modellen der oxidativen Belastung und im Besonderen in Membranproteinen der inneren Mitochondrienmembran lebensspannenabhängig depletiert war, wurde dieses Merkmal näher untersucht. Deshalb wurde die Hypothese getestet, ob ein besonderer Redox-Mechanismus der Thiolfunktion für diese selektive Depletion einer im Allgemeinen als harmlos oder antioxidativ geltenden Aminosäure verantwortlich ist. Um den Effekt von Cysteinresten in Membranen nachzustellen, wurden primäre humane Lungenfibroblasten (IMR90) mit diversen Modellsubstanzen behandelt. Geringe Konzentrationen der lipophilen Substanz Dodecanthiol verursachten eine signifikante Toxizität in IMR90-Zellen, die von einer schnellen Zunahme an polyubiquitinierten Proteinen und anderen Indikatoren des proteotoxischen Stresses, wie Sequestosom 1 (P62), HSP70 und HSP90 begleitet wurde. Dieser Effekt konnte spezifisch der Chemie der Thiolfunktion in Membranen zugeordnet werden, da Dodecanol (DOH), Dodecylmethylsulfid (DMS), Butanthiol oder wasserlösliche Thiole weder eine cytotoxische Wirkung noch eine Polyubiquitinierung von Proteinen verursachten. Die Ergebnisse stimmen mit der Hypothese überein, dass Thiole innerhalb von biologischen Membranen als radikalische Kettentransferagentien wirken. Diese Eigenschaft wird in der Polymerchemie durch Nutzung von lipophilen Thiolen in hydrophoben Milieus technisch für die Produktion von Polymeren benutzt. Da die Thiylradikal-spezifische Reaktion von cis-Fettsäuren zu trans-Fettsäuren in 12SH behandelten Zellen verstärkt ablief, kann gefolgert werden, dass 12SH zellulär radikalisiert wurde. In lebenden Organismen kann demnach die Oxidation von Cystein die Schädigung von Membranen beschleunigen und damit Einfallstore für die laterale Radikalisierung von integralen Membranproteinen schaffen, welche möglicherweise der Langlebigkeit abträglich ist, zumindest, wenn sie in der inneren Mitochondrienmembran auftritt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the current work, three studies about non-aqueous dispersions of particles were carried out by using an amphiphilic block copolymer poly(isoprene)-block-poly(methyl methacrylate) (PI-b-PMMA) as stabilizer:rn1. Dispersions of polyurethane and polyurea porous particles for polymer compositesrn2. Dispersions of PMMA and PU particles with PDI dye for study of Single Molecule Spectroscopy Detectionrn3. Dispersions of graphene nanosheets for polymer compositesrnrnIn the first study, highly porous polyurethane and polyurea particles were prepared in a non-aqueous emulsion. The preparation of porous particles consisted of two parts: At first, a system was developed where the emulsion had high stability for the polymerization among diisocyanate, diol and water. In the second part, porous particles were prepared by using two methods fission/fusion and combination by which highly porous particles were obtained. In this study, the applications of porous particles were also investigated where polyurethane particles were tested as filling material for polymer composites and as catalyst carrier for polyethylene polymerization. rnrnIn the second study, PMMA and PU particles from one non-aqueous emulsion were investigated via single molecule fluorescence detection. At first the particles were loaded with PDI dye, which were detected by fluorescence microscopy. The distribution and orientation of the PDI molecules in the particles were successfully observed by Single Molecule Fluorescence Detection. The molecules were homogenously distributed inside of the particles. In addition they had random orientation, meaning that no aggregations of dye molecules were formed. With the results, it could be supposed that the polymer chains were also homogenously distributed in the particles, and that the conformation was relatively flexible. rnrnIn the third part of the study, graphene nanosheets with high surface area were dispersed in an organic solvent with low boiling point and low toxicity, THF, stabilized with a block copolymer PI-b-PMMA. The dispersion was used to prepare polymer composites. It was shown that the modified graphene nanosheets had good compatibility with the PS and PMMA matrices. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The world's rising demand of energy turns the development of sustainable and more efficient technologies for energy production and storage into an inevitable task. Thermoelectric generators, composed of pairs of n-type and p-type semiconducting materials, di¬rectly transform waste heat into useful electricity. The efficiency of a thermoelectric mate¬rial depends on its electronic and lattice properties, summarized in its figure of merit ZT. Desirable are high electrical conductivity and Seebeck coefficients, and low thermal con¬ductivity. Half-Heusler materials are very promising candidates for thermoelectric applications in the medium¬ temperature range such as in industrial and automotive waste heat recovery. The advantage of Heusler compounds are excellent electronic properties and high thermal and mechanical stability, as well as their low toxicity and elemental abundance. Thus, the main obstacle to further enhance their thermoelectric performance is their relatively high thermal conductivity.rn rnIn this work, the thermoelectric properties of the p-type material (Ti/Zr/Hf)CoSb1-xSnx were optimized in a multistep process. The concept of an intrinsic phase separation has recently become a focus of research in the compatible n-type (Ti/Zr/Hf)NiSn system to achieve low thermal conductivities and boost the TE performance. This concept is successfully transferred to the TiCoSb system. The phase separation approach can form a significant alternative to the previous nanostructuring approach via ball milling and hot pressing, saving pro¬cessing time, energy consumption and increasing the thermoelectric efficiency. A fundamental concept to tune the performance of thermoelectric materials is charge carrier concentration optimization. The optimum carrier concentration is reached with a substitution level for Sn of x = 0.15, enhancing the ZT about 40% compared to previous state-of-the-art samples with x = 0.2. The TE performance can be enhanced further by a fine-tuning of the Ti-to-Hf ratio. A correlation of the microstructure and the thermoelectric properties is observed and a record figure of merit ZT = 1.2 at 710°C was reached with the composition Ti0.25Hf0.75CoSb0.85Sn0.15.rnTowards application, the long term stability of the material under actual conditions of operation are an important issue. The impact of such a heat treatment on the structural and thermoelectric properties is investigated. Particularly, the best and most reliable performance is achieved in Ti0.5Hf0.5CoSb0.85Sn0.15, which reached a maximum ZT of 1.1 at 700°C. The intrinsic phase separation and resulting microstructure is stable even after 500 heating and cooling cycles.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ozon (O3) ist ein wichtiges Oxidierungs- und Treibhausgas in der Erdatmosphäre. Es hat Einfluss auf das Klima, die Luftqualität sowie auf die menschliche Gesundheit und die Vegetation. Ökosysteme, wie beispielsweise Wälder, sind Senken für troposphärisches Ozon und werden in Zukunft, bedingt durch Stürme, Pflanzenschädlinge und Änderungen in der Landnutzung, heterogener sein. Es ist anzunehmen, dass diese Heterogenitäten die Aufnahme von Treibhausgasen verringern und signifikante Rückkopplungen auf das Klimasystem bewirken werden. Beeinflusst wird der Atmosphären-Biosphären-Austausch von Ozon durch stomatäre Aufnahme, Deposition auf Pflanzenoberflächen und Böden sowie chemische Umwandlungen. Diese Prozesse zu verstehen und den Ozonaustausch für verschiedene Ökosysteme zu quantifizieren sind Voraussetzungen, um von lokalen Messungen auf regionale Ozonflüsse zu schließen.rnFür die Messung von vertikalen turbulenten Ozonflüssen wird die Eddy Kovarianz Methode genutzt. Die Verwendung von Eddy Kovarianz Systemen mit geschlossenem Pfad, basierend auf schnellen Chemilumineszenz-Ozonsensoren, kann zu Fehlern in der Flussmessung führen. Ein direkter Vergleich von nebeneinander angebrachten Ozonsensoren ermöglichte es einen Einblick in die Faktoren zu erhalten, die die Genauigkeit der Messungen beeinflussen. Systematische Unterschiede zwischen einzelnen Sensoren und der Einfluss von unterschiedlichen Längen des Einlassschlauches wurden untersucht, indem Frequenzspektren analysiert und Korrekturfaktoren für die Ozonflüsse bestimmt wurden. Die experimentell bestimmten Korrekturfaktoren zeigten keinen signifikanten Unterschied zu Korrekturfaktoren, die mithilfe von theoretischen Transferfunktionen bestimmt wurden, wodurch die Anwendbarkeit der theoretisch ermittelten Faktoren zur Korrektur von Ozonflüssen bestätigt wurde.rnIm Sommer 2011 wurden im Rahmen des EGER (ExchanGE processes in mountainous Regions) Projektes Messungen durchgeführt, um zu einem besseren Verständnis des Atmosphären-Biosphären Ozonaustauschs in gestörten Ökosystemen beizutragen. Ozonflüsse wurden auf beiden Seiten einer Waldkante gemessen, die einen Fichtenwald und einen Windwurf trennt. Auf der straßenähnlichen Freifläche, die durch den Sturm "Kyrill" (2007) entstand, entwickelte sich eine Sekundärvegetation, die sich in ihrer Phänologie und Blattphysiologie vom ursprünglich vorherrschenden Fichtenwald unterschied. Der mittlere nächtliche Fluss über dem Fichtenwald war -6 bis -7 nmol m2 s-1 und nahm auf -13 nmol m2 s-1 um die Mittagszeit ab. Die Ozonflüsse zeigten eine deutliche Beziehung zur Pflanzenverdunstung und CO2 Aufnahme, was darauf hinwies, dass während des Tages der Großteil des Ozons von den Pflanzenstomata aufgenommen wurde. Die relativ hohe nächtliche Deposition wurde durch nicht-stomatäre Prozesse verursacht. Die Deposition über dem Wald war im gesamten Tagesverlauf in etwa doppelt so hoch wie über der Freifläche. Dieses Verhältnis stimmte mit dem Verhältnis des Pflanzenflächenindex (PAI) überein. Die Störung des Ökosystems verringerte somit die Fähigkeit des Bewuchses, als Senke für troposphärisches Ozon zu fungieren. Der deutliche Unterschied der Ozonflüsse der beiden Bewuchsarten verdeutlichte die Herausforderung bei der Regionalisierung von Ozonflüssen in heterogen bewaldeten Gebieten.rnDie gemessenen Flüsse wurden darüber hinaus mit Simulationen verglichen, die mit dem Chemiemodell MLC-CHEM durchgeführt wurden. Um das Modell bezüglich der Berechnung von Ozonflüssen zu evaluieren, wurden gemessene und modellierte Flüsse von zwei Positionen im EGER-Gebiet verwendet. Obwohl die Größenordnung der Flüsse übereinstimmte, zeigten die Ergebnisse eine signifikante Differenz zwischen gemessenen und modellierten Flüssen. Zudem gab es eine klare Abhängigkeit der Differenz von der relativen Feuchte, mit abnehmender Differenz bei zunehmender Feuchte, was zeigte, dass das Modell vor einer Verwendung für umfangreiche Studien des Ozonflusses weiterer Verbesserungen bedarf.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In Hinsicht darauf, dass sich S. cerevisiae-Stämme im Laufe der Domestizierung und Anpassung an verschiedene Habitate genetisch verändert haben, wurde in dieser Arbeit eine repräsentative Auswahl von Labor-, kommerziellen und in der Natur vorkommenden Saccharomyces-Stämmen und ihren Interspezies-Hybriden auf die Verbreitung alleler Varianten der Hexokinase-Gene HXK1 und HXK2 getestet. Von den Hexose-Transportern stand Hxt3p im Mittelpunkt, da seine essentielle Rolle bei der Vergärung von Glucose und Fructose bereits belegt wurde.rnIn dieser Arbeit wurde gezeigt, dass es bedeutende Unterschiede in der Vergärung von Glucose und Fructose zwischen Weinhefen der Gattung Saccharomyces gibt, die z.T. mit Struktur-Varianten des Hexose-Transporter Hxt3p korrelieren. rnInsgesamt 51 Hefestämme wurden auf ihre allele Variante des HXT3-Gens untersucht. Dabei haben sich drei Hauptgruppen (die Fermichamp®-Typ Gruppe, Bierhefen und Hybrid-Stämme) mit unterschiedlichem HXT3-Allel ergeben. Im Zusammenhang mit der Weinherstellung wurden signifikante Nukleotid-Substitutionen innerhalb des HXT3-Gens der robusten S. cerevisiae-Stämme (wie z.B. Sekthefen, kommerzielle Starterkulturen) und Hybrid-Stämmen festgestellt. Diese Hefen zeichneten sich durch die Fähigkeit aus, den Most trotz stressigen Umwelt-Bedingungen (wie hohe Ethanol-Konzentration, reduzierter Ammonium-Gehalt, ungünstiges Glucose:Fructose-Verhältnis) zu vergären. rnDie Experimente deuten darauf hin, dass die HXT3-Allel-Variante des als Starterkultur verwendbaren Stammes Fermichamp®, für den verstärkten Fructose-Abbau verantwortlich ist. Ein gleiches Verhalten der Stämme mit dieser Allel-Variante wurde ebenfalls beobachtet. Getestet wurden die S. cerevisiae-Stämme Fermichamp® und 54.41, die bezüglich Hxt3p-Aminosäuresequenz gleich sind, gegenüber zwei S. cerevisiae-Stämmen mit dem HXT3-Standard-Alleltyp Fermivin® und 33. Der Unterschied in der Hexose-Verwertung zwischen Stämmen mit Fermichamp®- und Standard-Alleltyp war in der Mitte des Gärverlaufs am deutlichsten zu beobachten. Beide Gruppen, sowohl mit HXT3 Fermichamp®- als auch Fermivin®-Alleltyp vergoren die Glucose schneller als die Fructose. Der Unterschied aber zwischen diesen HXT3-Alleltypen bei der Zucker-Verwertung lag darin, dass der Fermichamp®-Typ eine kleinere Differenz in der Abbau-Geschwindigkeit der beiden Hexosen zeigte als der Fermivin®-Typ. Die Zuckeraufnahme-Messungen haben die relativ gute Fructose-Aufnahme dieser Stämme bestätigt.rnEbenfalls korrelierte der fructophile Charakter des Triple-Hybrides S. cerevisiae x S. kudriavzevii x S. bayanus-Stamm HL78 in Transportexperimenten mit verstärkter Aufnahme von Fructose im Vergleich zu Glucose. Insgesamt zeigte dieser Stamm ähnliches Verhalten wie die S. cerevisiae-Stämme Fermichamp® und 54.41. rnIn dieser Arbeit wurde ein Struktur-Modell des Hexose-Transporters Hxt3p erstellt. Als Basis diente die zu 30 % homologe Struktur des Proton/Xylose-Symporters XylE aus Escherichia coli. Anhand des Hxt3p-Modells konnten Sequenzbereiche mit hoher Variabilität (Hotspots) in drei Hxt3p-Isoformen der Hauptgruppen (die Fermichamp®-Typ Gruppe, Bierhefen und Hybrid-Stämme) detektiert werden. Diese signifikanten Aminosäure-Substitutionen, die eine mögliche Veränderung der physikalischen und chemischen Eigenschaften des Carriers mit sich bringen, konzentrieren sich auf drei Bereiche. Dazu gehören die Region zwischen den N- und C-terminalen Domänen, die cytosolische Domäne und der Outside-Loop zwischen Transmembranregion 9 und Transmembranregion 10. rnObwohl die Transportmessungen keinen Zusammenhang zwischen Stämmen mit unterschiedlichen HXT3-Allelen und ihrer Toleranz gegenüber Ethanol ergaben, wurde ein signifikanter Anstieg in der Zuckeraufnahme nach vorheriger 24-stündiger Inkubation mit 4 Vol% Ethanol bei den Teststämmen beobachtet. rnInsgesamt könnten allele Varianten von HXT3-Gen ein nützliches Kriterium bei der Suche nach robusten Hefen für die Weinherstellung oder für andere industrielle Anwendungen sein. Die Auswirkung dieser Modifikationen auf die Struktur und Effizienz des Hexose-Transporters, sowie der mögliche Zusammenhang mit Ethanol-Resistenz müssen weiter ausführlich untersucht werden. rnEin Zusammenhang zwischen den niedrig variablen Allel-Varianten der Hexokinase-Gene HXK1 und HXK2 und dem Zucker-Metabolismus wurde nicht gefunden. Die Hexokinasen der untersuchten Stämme wiesen allerdings generell eine signifikante geringere Affinität zu Fructose im Vergleich zu Glucose auf. Hier liegt sicherlich eine Hauptursache für den Anstieg des Fructose:Glucose-Verhältnisses im Laufe der Vergärung von Traubenmosten.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mechanische Eigenschaften nach Verfilmen sind häufig die wichtigsten Anforderungen für Polyurethandispersionen, so werden beispielsweise in den Hauptanwendungen im Beschichtungs- und Klebstoffsektor oftmals hohe Festigkeiten benötigt. Diese Anforderungen werden in der Dissertation durch eine gezielte Strukurbildung in den Polymeren adressiert. Mit einer hohen Kontrolle über den Polymeraufbau, durch die Ausbildung von kristallinen Bereichen, sowie mit phasenseparierten Morphologien werden drei Konzepte für die Modifikation der mechanischen Eigenschaften vorgestellt: Eine chemische bzw. kovalente Vernetzung wird mit funktionalisierten Polyurethanen erreicht, die physikalische Vernetzung kann reversibel die mechanische Festigkeit von Filmen erhöhen und Hybride mit kontrollierter Morphologie zeigen eine Kombination von Vorteilen ihrer Einzelbestandteile. Ferner zeichnen sich die synthetisierten Polyurethane gegenüber anderen Polymerklassen durch ihre relativ einfache Synthese und die Möglichkeit zur Herstellung multifunktionaler Materialien aus.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Krebspatienten, die eine Chemotherapie erhalten, leiden häufig an schwerwiegenden unerwünschten Arzneimittelwirkungen, wie z.B. Übelkeit und Erbrechen, welche nachweislich durch eine geeignete Supportivmedikation und durch eine direkte pharmazeutische Betreuung gesenkt werden können.rnIn dieser Arbeit wurde in einer prospektiven, nicht-interventionellen multizentrischen Studie untersucht, ob ambulant behandelte Mamma- und Colon-Carcinom-Patienten während der Chemotherapie Vorteile durch eine indirekte pharmazeutische Betreuung (Mitgabe einer schriftlichen Patienteninformation und der Begleitmedikamente) haben. Primäres Ziel der Studie war eine Reduktion von Häufigkeit und Schweregrad ausgewählter UAW, sekundäre Ziele waren die Verbesserung der Lebensqualität, der Patientenzufriedenheit und des Patientenwissens zur Therapie und Begleitmedikation. Die Daten wurden mittels vier verschiedener Patienten-Fragebögen in Form von Telefoninterviews zu drei verschiedenen Zeitpunkten der Chemotherapie erhoben.rnInsgesamt konnten 106 Patienten vom St.-Johannes-Hospital in Dortmund und von der Universitätsmedizin Mainz in die Studie eingeschlossen werden. Die UAW nach Häufigkeit und Schweregrad gemäß CTC konnten durch eine indirekte pharmazeutische Betreuung zu allen drei Zeitpunkten der Datenerfassung z.T. signifikant gesenkt werden. Eine Verbesserung konnte auch bei allen humanistischen Ergebnisparametern (Patientenwissen, Lebensqualität, Patientenzufriedenheit) beobachtet werden. Auf Grund der relativ kleinen, nicht vollständig rekrutierten Kontrollgruppe und den unterschiedlichen Rahmenbedingungen an den teilnehmenden Kliniken, sind weitere vergleichende Untersuchungen erforderlich, um den Nutzen einer indirekten pharmazeutischen Betreuung weiter zu belegen. rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit hat das von 1969 – 1972 ergrabene Inventar der Magdalenahöhle bei Gerolstein unter kritischer Berücksichtigung der Originaldokumentation sowie der stratigraphischen und sedimentologischen Beschreibungen erneut untersucht und v.a. hinsichtlich zweier Arbeitshypothesen überprüft. Daneben fanden jedoch auch die Schmuckobjekte und in kursorischer Weise die Tierknochen Betrachtung. Die Elfenbeinobjekte setzen sich aus elf Fragmenten zusammen, die bereits in zerbrochenem Zustand in die Höhle gelangt sein müssen. Sie sind mit mehreren Linienbündeln verziert, die teilweise aus v- oder zickzack-förmigen Motiven bestehen. Auch gestanzte Punktreihen treten auf. In ihrer Größe und Form sind die Elfenbeinobjekte einzigartig. Lediglich aus der Csákvár-Höhle in Ungarn gibt es vergleichbare Stücke, deren genaue Altersstellung jedoch unklar ist. Daneben kommen in der Magdalenahöhle zwei vollständige durchlochte Hirschgrandeln sowie die Fragmente einer durchlochten Grandel sowie eines durchlochten Wolfzahns vor. Diese tragen teilweise Spuren einer Aufhängung bzw. Befestigung. Der Grund für ihre Niederlegung vor Ort ist indes nicht endgültig zu klären. Die überlieferten Tierknochen besitzen verschiedene Grade von Verfärbung und Erhaltung, lassen sich dadurch jedoch nicht verschiedenen Schichten zuordnen. Neben Modifikationen von Carnivoren, darunter v.a. durch Verdauungsprozesse, sind auch an einigen Exemplaren Schnittspuren festgestellt worden. Eine Bärenphalange aus der Fundschicht b1 eröffnet so die Perspektive, die menschliche Belegung erneut mit der Radiokohlenstoffmethode direkt zu datieren. Der Untere paläolithische Fundhorizont besteht aus relativ unspezifischen Quarzartefakten, die von einer opportunistischen Abschlags- und Werkzeugsgewinnung aus lokalen Schottern zeugen. Für den Oberen paläolithischen Fundhorizont zeigt die Steinartefaktanalyse, dass die Abschläge als Herstellungsreste dünner bifazieller Geräte angesprochen werden können. Während dieser Befund alleine auch im Zusammenhang mit den spätmittelpaläolithischen Blattspitzengruppen gesehen werden kann, sprechen die bereits erwähnten vergesellschafteten Schmuckobjekte, der Nachweis eines Klingenabbaus sowie die fast ausschließliche Verwendung exogenen Rohmaterials für einen jungpaläolithischen Kontext, d.h. für eine Affinität zum Solutréen. Die Steinartefakte der Magdalenahöhle zeugen gleichzeitig von einer sehr mobilen Lebensweise, da lediglich eine Phase des Herstellungsprozesses des bifaziellen Geräts vor Ort stattgefunden hat. Gleichzeitig wurden früher an anderem Ort gewonnene Abschläge mitgebracht und als Werkzeug verwendet. Ebenso wie der Kern selbst wurden Abschläge auch wieder abtransportiert. Insgesamt kann daher eine Rohmaterial konservierende Strategie rekonstruiert werden, in der neben dem Kern als Gerät selbst auch die Abschläge Verwendung finden. Da die Magdalenahöhle als östlicher Niederschlag des Solutréen und als Beleg für das maximale Verbreitungsgebiet dieses Technokomplexes gewertet werden muss, reiht sie sich in eine Reihe von Fundstellen und Argumenten ein, wonach das zentrale Mitteleuropa während des LGM s.l. nicht menschenleer war, sondern in sporadischen Exkursionen begangen wurde. Obwohl sich daran noch keine dauerhafte Wiederbesiedlung anschloss, muss vom Bild einer absoluten Siedlungsleere Abstand genommen werden. Weitere Fundstellen und absolutchronologische Datierungen, u.a. der Magdalenahöhle, könnten in Zukunft zu einem noch besseren Verständnis der menschlichen Anpassungsstragien an kaltzeitliche Umwelten beitragen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The main objective of this study is to reveal the housing patterns in Cairo as one of the most rapidly urbanizing city in the developing world. The study outlines the evolution of the housing problem and its influencing factors in Egypt generally and in Cairo specifically. The study takes into account the political transition from the national state economy to the open door policy, the neo-liberal period and finally to the housing situation after the January 2011 Revolution. The resulting housing patterns in Cairo Governorate were identified as (1) squatter settlements, (2) semi-informal settlements, (3) deteriorated inner pockets, and (4) formal settlements. rnThe study concluded that the housing patterns in Cairo are reflecting a multifaceted problem resulting in: (1) the imbalance between the high demand for affordable housing units for low-income families and the oversupply of upper-income housing, (2) the vast expansion of informal areas both on agricultural and desert lands, (3) the deterioration of the old parts of Cairo without upgrading or appropriate replacement of the housing structure, and (4) the high vacancy rate of newly constructed apartmentsrnThe evolution and development of the current housing problem were attributed to a number of factors. These factors are demographic factors represented in the rapid growth of the population associated with urbanization under the dictates of poverty, and the progressive increase of the prices of both buildable land and building materials. The study underlined that the current pattern of population density in Cairo Governorate is a direct result of the current housing problems. Around the depopulation core of the city, a ring of relatively stable areas in terms of population density has developed. Population densification, at the expense of the depopulation core, is characterizing the peripheries of the city. The population density in relation to the built-up area was examined using Landsat-7 ETM+ image (176/039). The image was acquired on 24 August 2006 and considered as an ideal source for land cover classification in Cairo since it is compatible with the population census 2006.rnConsidering that the socio-economic setting is a driving force of change of housing demand and that it is an outcome of the accumulated housing problems, the socio-economic deprivations of the inhabitants of Cairo Governorate are analyzed. Small administrative units in Cairo are categorized into four classes based on the Socio-Economic Opportunity Index (SEOI). This index is developed by using multiple domains focusing on the economic, educational and health situation of the residential population. The results show four levels of deprivation which are consistent with the existing housing patterns. Informal areas on state owned land are included in the first category, namely, the “severely deprived” level. Ex-formal areas or deteriorated inner pockets are characterized as “deprived” urban quarters. Semi-informal areas on agricultural land concentrate in the third category of “medium deprived” settlements. Formal or planned areas are included mostly in the fourth category of the “less deprived” parts of Cairo Governorate. rnFor a better understanding of the differences and similarities among the various housing patterns, four areas based on the smallest administrative units of shiakhat were selected for a detailed study. These areas are: (1) El-Ma’desa is representing a severely deprived squatter settlement, (2) Ain el-Sira is an example for an ex-formal deprived area, (3) El-Marg el-Qibliya was selected as a typical semi-informal and medium deprived settlement, and (4) El-Nozha is representing a formal and less deprived area.rnThe analysis at shiakhat level reveals how the socio-economic characteristics and the unregulated urban growth are greatly reflected in the morphological characteristics of the housing patterns in terms of street network and types of residential buildings as well as types of housing tenure. It is also reflected in the functional characteristics in terms of land use mix and its degree of compatibility. It is concluded that the provision and accessibility to public services represents a performance measure of the dysfunctional structure dominating squatter and semi-informal settlements on one hand and ample public services and accessibility in formal areas on the other hand.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The burnout syndrome is a heterogeneous concept mostly understood as a complex of symptoms, primarily exhaustion, in response to prolonged emotional and interpersonal stress at work. The prevalence of burnout is considerably high in Swiss primary care physicians. In spite of its vague definition, burnout is a serious stress disease with many associated medical problems and high economic costs. Previous recommendations for the psychosomatic management of patients with functional somatic syndromes also apply to burnout treatment. These are complemented by more specific interventions targeting job stress related factors. Relapse prevention focuses on early recognition of warning signs and is an ongoing process.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zahnriemenfördersysteme haben auf Grund ihrer wirtschaftlichen und technischen Vorteile beim Transport von Stückgütern ein breites Anwendungsfeld in den unterschiedlichen Bereichen der Industrie gefunden und gewinnen weiterhin an Bedeutung. Die Auslegung der Systeme beschränkt sich gegenwärtig im Wesentlichen auf die Zugstrang- und die Zahnfußfestigkeit des Zahnriemens. Grundlagen der Berechnungen sind oft recht vage Aussagen zur Höhe des Reibwertes zwischen dem Zahnriemen und dessen Stützschiene. Die Erhöhung der Kontakttemperatur durch die eingebrachte Reibleistung wird meist völlig vernachlässigt. In der Praxis wird oftmals auf Erfahrungswerte zurückgegriffen, wobei die Gefahr der Über- bzw. Unterdimensionierung mit erheblichen Auswirkungen auf die Lebensdauer, das Verschleißverhalten und die Betriebssicherheit besteht. 1. Anwendung von Zahnriemenförderern Das Einsatzgebiet der Zahnriemen ist neben der Antriebstechnik in zunehmendem Maße die Fördertechnik, wo diese als Zug- und Tragmittel für den Stückguttransport zur Anwendung kommen. Der Grund dieser Entwicklung lässt sich mit den günstigen Eigenschaften dieser Maschinenelemente erklären. Besonders zu erwähnen sind dabei der geräuscharme Lauf, die geringe Masse und die niedrigen Kosten in Anschaffung und Wartung. Der synchrone Lauf, der mit Zahnriemen wie auch mit Förderketten realisierbar ist, ist ein weiterer wesentlicher Vorteil. Dabei übernehmen die robusten Förderketten den Bereich der Fördertechnik, in dem große Kräfte übertragen werden müssen und stark schmutzintensive Umgebungsbedingungen vorherrschen. Haupteinsatzgebiete der Zahnriemenförderer ist der Bereich der empfindlicheren Güter mit relativ geringen Massen, wobei sich immer mehr abzeichnet, dass auch Einsatzgebiete mit schweren Werkzeugträgern erschlossen werden. Die Transportzahnriemen müssen bei dem Einsatz zahnseitig abgestützt werden, um die Gutmasse aufnehmen zu können. Stückgüter können von Zahnriemen durch Kraft- oder Formschluss transportiert werden. Der Einsatz ist von den technologischen Erfordernissen und der Art des Transportgutes abhängig. Formschluss wird meist über aufgeschweißte Formelemente / Mitnehmer realisiert. Diese Art des Transportes wird verwendet, wenn Teile: • vereinzelt, • genau positioniert, ������ zeitlich exakt getaktet, • über starke Steigungen bis hin zum vertikalen transportiert werden müssen, • bzw. sich gegenseitig nicht berühren dürfen. Abbildung 1: Formschlüssiger Transport mit aufgeschweißten Formelementen Die Art und die Form des auf dem Zahnriemenrücken aufgebrachten Formelementes werden vom Gut selbst und dem Einsatzzweck bestimmt. Eine Vielzahl von verschiedenen Elementen wird von der Industrie standardmäßig angeboten. Bei der kraftschlüssigen Variante können zwei grundlegende Arten unterschieden werden: Zum einen Zahnriemenbeschichtungen mit sehr hohem Reibwert, zum anderen mit sehr niedrigen Reibwerten. Beschichtungen mit sehr hohem Reibwert (z. B. Silikon, PUR-Schaum, Naturkautschuk) eignen sich besonders für Schrägförderer und Abzugsbänder sowie für einfache Positionieraufgaben. Dabei wird eine relative Verschiebung des Gutes zum Zahnriemen durch den hohen Reibwert in der Kontaktzone behindert. Abbildung 2: Abzugsband für biegeschlaffe Flachformkörper z. B. Folie, Textilien Zahnriemenrückenbeschichtungen mit geringen Reibwerten bestehen meist aus Polyamidgewebe und eignen sich besonders gut für den Staubetrieb. Hierbei dient der Zahnriemen selbst als Zwischenspeicher. Bei Bedarf können die Güter freigegeben werden. Dabei muss aber sichergestellt werden, dass auch die Auflagefläche des Fördergutes für einen solchen Einsatzzweck geeignet ist, da es zu einer Relativbewegung zwischen Gut und undZahnriemen kommt. Abbildung 3: Stauförderer Parallelförderer können sowohl als reibschlüssige als auch als formschlüssige Variante ausgeführt werden. Ihr Vorteil liegt darin, dass größere Güter, z. B. Flachglas, Bleche usw. auf zwei oder mehreren Riemen aufliegen und durch die gleiche Geschwindigkeit der synchron angetriebenen Riemen keine Verschiebung des Gutes erfolgt. Würde der Antrieb nicht über Zahnriemen erfolgen, sondern über Flachriemen bzw. Gurte, wäre außerdem ein Zugmittel in der Breite des Fördergutes notwendig. Daraus ergibt sich zusätzlich eine wesentliche Massereduzierung der Zugmittel für den Stückguttransport in der Fördertechnik. Abbildung 4: Parallelförderer für kraftschlüssigen Transport Allen diesen Varianten ist jedoch gemein, dass der Zahnriemen auf einer Stützschiene gleitet und die Normalkraft des Transportgutes in Verbindung mit Riemengeschwindigkeit und Reibwert eine Reibleistung und damit Wärme erzeugt. Zum gegenwärtigen Zeitpunkt fehlen exakte Angaben zu den Reibwerten für die einzelnen Gleitpaarungen. Auch ist eine Veränderung dieser Reibwerte bei Geschwindigkeits-, Temperatur-, und Belastungsänderung ungeklärt. Des Weiteren ist es auch notwendig, die Belastungsgrenzen für die Auslegung von Zahnriemenförderern zu definieren und das Verschleißverhalten zu kennen. Die derzeit üblichen Auslegungskriterien für diese fördertechnischen Anlagen sind Zugstrangfestigkeit und Zahnfußfestigkeit. Dabei bleibt jedoch die Erwärmung des Zugmittels und der Stützschiene durch die eingebrachte Reibleistung und den sich ändernden Reibwert unbeachtet. Insbesondere bei kurzen Förderstrecken mit großen Lasten bzw. hohen Transportgeschwindigkeiten ist die Gefahr von thermischen Überlastungen gegeben, welche zu erhöhtem Verschleiß bzw. zum Totalausfall der Anlage führen kann. Soll dieses zusätzliche Auslegungskriterium angewandt werden, sind Erkenntnisse aus den Gebieten der Tribologie und der Wärmelehre/Thermodynamik anzuwenden. Zum einen ist eine Bestimmung der entstehenden Reibleistung notwendig und zum anderen der abgeführte Wärmestrom zu ermitteln. Die sehr komplexen Zusammenhänge werden durch konstruktive und technologische Größen beschrieben, welche sich wiederum gegenseitig beeinflussen. 2. Reibwerte in der Gleitpaarung In DIN ISO 7148-2 sind die Besonderheiten bei der tribologischen Prüfung von polymeren Werkstoffen beschrieben. Dabei wird explizit darauf hingewiesen, dass die Prüfanordnung möglichst der praktischen Anwendung entsprechen sollte, um die Übertragbarkeit der Prüfergebnisse zu gewährleisten. Deshalb wurde ein Versuchsstand konzipiert, der die Kontaktverhältnisse von Zahnriemen und Stützschienen möglichst real abbildet (Abb.5). Abbildung 5: Schematischer Aufbau des Versuchsstandes Für die Untersuchung der Zahnriemenpaarung wird der Zahnriemen mit der Zahnseite nach oben aufgespannt. Auf die nach oben zeigende Zahnseite wird eine planparallele Platte des jeweiligen Gleitschienenmaterials aufgelegt. Die Flächenpressung der Paarung lässt sich über aufgebrachte Massestücke variieren und die Reibkraft über den Kraftsensor direkt über eine Schnittstelle zur Aufzeichnung an einen Rechner weiterleiten. Zur Ermittlung der Kontakttemperaturen wurden Bohrungen in das Gleitschienenmaterial eingebracht, die unmittelbar bis an die Oberfläche der Kontaktfläche reichen und mit Thermoelementen bestückt sind. Die Abstützung des Zahnriemens erfolgt auf einem Flachriemen, der wiederum auf einer Rollenbahn abrollt. Dadurch wird ein zusätzlicher Wärmeeintrag durch eine gleitende Abstützung vermieden. Die Gleitgeschwindigkeit und Flächenpressung auf die Paarung werden in Stufen variiert. Als Versuchszahnriemen dienten PU-Riemen mit und ohne zahnseitiger Polyamidbeschichtung der Abmessung 1250 x 25 T10. Abbildung 6: Reibwertmessungen an PU-Zahnriemen ohne Beschichtung (Kurzzeitversuche) Die ermittelten Messwerte der Gleitreibungszahl µ für verschiedene PU-Zahnriemen – Stützschienenkombinationen sind in Abbildung 6 dargestellt. Die schraffierten Balken geben die Reibungszahlempfehlungen von Herstellern sowie aus Literaturquellen für diese Paarungen wieder. Oft wird jedoch darauf hingewiesen, dass für einen konkreten Anwendungsfall eigene Untersuchungen durchzuführen sind. Die grauen Balken geben die bei einer Versuchsdauer von bis zu 8 Stunden ermittelten Reibungszahlen wieder. Dabei wurden sowohl die Flächenpressungen als auch die Gleitgeschwindigkeiten variiert. Bei einigen Paarungen (Holz (Abb.7)) konnte ein sehr starker abrasiver Verschleiß am Zahnriemen festgestellt werden. Diese Werkstoffkombinationen sind nur für geringe Belastungen geeignet. Abbildung 7: Oberfläche PU-Zahnriemen, verschlissen an Schichtholz Die Paarungen in Verbindung mit Stahl- bzw. Aluminiumstützschienen neigen zu stick-slip- Erscheinungen verbunden mit starker Geräuschentwicklung. Aufgrund der relativ hohen Reibungszahlen wurden keine Dauerversuche an unbeschichteten PU-Zahnriemen durchgeführt. Für die weiteren Untersuchungen wurden ausschließlich polyamidbeschichtete Zahnriemen verwendet. In Abbildung 8 werden die Ergebnisse der Reibwertuntersuchungen an PAZ-Zahnriemen (Polyamidgewebebeschichtung auf der Zahnseite) dargestellt. Die schraffierten Balken stellen wiederum die bisherigen Empfehlungen dar, die grauen Balken die ermittelten Messwerte im Kurzzeitversuch (bis 8 Stunden) und die schwarzen Balken die Messwerte im Langzeitversuch (zwischen 7 und teilweise bis zu 100 Tagen). Hier ist die Übereinstimmung der Reibungszahlen zwischen Empfehlungen und Kurzzeitmesswerten sehr gut. Der deutliche Anstieg der Werte im weiteren Verlauf der Untersuchungen deutet daraufhin, dass der tribologische Einlauf innerhalb von 8 Stunden meist noch nicht abgeschlossen ist und dass nach fortlaufender Belastung weitere tribologische Phänomene die Kontaktverhältnisse ändern. Abbildung 8: Reibungszahlen an polyamidbeschichteten PU-Zahnriemen (PAZ) in Verbindung mit verschiedenen Gleitschienen Bei den Paarungen mit einer Stützschiene aus Stahl, Aluminium oder Schichtholz konnte eine polymere Filmbildung auf der Gleitfläche beobachtet werden. In Abbildung 9 und 10 ist die Entwicklung am Beispiel von Stahlproben zu sehen. Gemeinsam bei diesen Paarungen ist die fortschreitende Schichtbildung, verbunden mit einer Reibwerterhöhung. Der Verschleiß der Gewebeschicht am Zahnriemen setzt bei größeren Reibungszahlen ein, was zu deren weiterer Erhöhung führt Ein weiterer Einsatz führt zur vollständigen Abtragung der Gewebeschicht und damit zu einer neuen tribologischen Paarung PU-Zahnriemen ��� Polymerschicht. Abbildung 9: beginnende polymere Ablagerung auf Stahlprobe Rz28 Abbildung 10: nahezu geschlossener polymerer Film auf Stahlprobe Rz28 Am Beispiel der Paarung PAZ Zahnriemen – Stahlstützschiene wird die Entwicklung der Reibungszahl über die Zeit des Gleitkontaktes in Abbildung 12 dargestellt. Dabei wurde die Oberflächenrauigkeit (Rz 6,3; Rz 28) durch entsprechende Bearbeitungen variiert. Der relativ starke Anstieg an der Paarung Rz 6,3 kann zum einen auf die hohe Gleitgeschwindigkeit und den damit entsprechend langen Gleitweg zurückgeführt werden, zum anderen auf den höheren adhäsiven Anteil durch die relativ glatte Oberfläche und der damit erhöhten Kontaktfläche. Abbildung 11 zeigt einen verschlissenen Zahnkopf. Abbildung 9: Verschlissene Zahnkopfflanke, PAZ - Stahl Abbildung 10: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PA – Stahl Die Erhöhung der Reibungszahlen an der Paarung PE UHMW - polyamidbeschichteter Zahnriemen kann nicht unmittelbar auf direkte Verschleißerscheinungen zurückgeführt werden. Sowohl die Gleitfläche als auch der Zahnriemen weisen auch nach längerem Kontakt keine sichtbaren Schäden auf: Es bildet sich kein polymerer Film auf der PE- UHMW- Gleitfläche heraus. In Abbildung 11 wird die Änderung der Reibungszahl dargestellt. Es wurden Paarungen mit steigendem p•v-Wert gewählt. Mit höheren Werten für die eingebrachte Leistung pro Flächeneinheit ist ein schnellerer Anstieg der Reibungszahlen zu verzeichnen. Abbildung 11: Änderung der Reibungszahl im zeitlichen Verlauf an der Paarung ZR PAZ – PE UHMW Die Erhöhung der Reibwerte zieht nicht nur eine Steigerung der Antriebsleistung nach sich, sondern auch eine Zunahme der Reibleistung und damit einen Anstieg der Kontakttemperatur. Hat diese einen bestimmten Wert erreicht, kommt es zum Aufschmelzen der Gleitflächen und damit zum Totalausfall der Paarung (Abbildungen 14, 15, 16). Ebenfalls tritt durch die Reibwerterhöhung eine höhere Belastung des Zugstranges und der Zahnfüße im Einlauf des Zahnriemens auf. Für eine konstruktive Auslegung entsprechender Zahnriemenförderer ist dies durch entsprechende Sicherheitsfaktoren zu berücksichtigen. Abbildung 12: Aufgeschmolzene PE-Laufschiene, 2-fach vergrößert Abbildung 13: geschmolzene Faserbündel 20- fach Abbildung 14: zerstörtes Gewebe in Folge thermischer Überlastung 3. Thermische Zusammenhänge Die Temperaturerhöhung in der Wirkstelle zwischen Zahnriemen und Stützschiene kann im stationären Zustand in der vereinfachten Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche a Wärmeübergangskoeffizient l Wärmeleitwert Abbildung 15: Kontaktmodell dargestellt werden. Dabei werden verschiedene Vereinfachungen angenommen: • Reibleistung wird auf die gesamte Fläche gleichmäßig verteilt, • Wärmestrom erfolgt nur in Normalenrichtung zur Gleitfläche, • konstante Reibleistung über die gesamte Zeit, • keine Ableitung des Wärmestromes über Stirn- und Seitenflächen, • eingeschwungener Gleichgewichtszustand der Temperaturverteilung, • gleiche Temperatur über der jeweiligen Oberfläche, • gleiche Strömungsverhältnisse und -bedingungen an der jeweiligen Oberfläche, • konstante - und - Werte über der gesamten Fläche. Der Temperaturverlauf für verschiedene Materialpaarungen ist in Abbildung 16 dargestellt. Der unterschiedliche Verlauf der Kurven kann mit den verschiedenen eingebrachten Reibleistungen durch sich unterschiedlich einstellende Reibungszahlen und durch die unterschiedlichen Wärmeleitwerte und Wärmekapazitäten der Gleitschienen erklärt werden. Ist eine stationäre Temperatur erreicht, so gilt vereinfacht die Vorstellung von Abbildung 15. Abbildung 16: thermischer Einlauf verschiedener Stützschienenmaterialien Die sich einstellende Gleitflächentemperatur ist im Wesentlichen von den in Abbildung 17 dargestellten Einflüssen abhängig. Da die Kontakttemperatur die Grenztemperatur (ca. 65°C) nicht überschreiten darf, um eine thermische Schädigung zu vermeiden, sind die entsprechenden Einflussgrößen zweckmäßig zu wählen. Die Parameter Gleitgeschwindigkeit und Flächenpressung sind meist durch die technologischen Erfordernisse vorgegeben, die Reibungszahl stellt sich entsprechend der tribologischen Paarung ein und die Wärmeleitfähigkeit ist ein kaum zu verändernder Stoffwert. Die Einflussmaßnahmen erstrecken sich also meist auf die Schichtstärke s der Abstützung und den Wärmeübergang zur Umgebung. Abbildung 17: Technologische und konstruktive Einflüsse auf die Gleitflächentemperatur in der Wirkstelle 4. Zusammenfassung Die Kenntnis der sich nach einer entsprechenden Einlaufphase einstellenden Reibungszahlen für verschiedene Zahnriemen – Stützschienenkombinationen ist für die Anwender und Entwickler wichtig, da damit eine optimale Auslegung von Zahnriemenförderern erfolgen kann. Diese optimale Auslegung realisiert dann in der Anwendung eine ökonomische Lebensdauer bei verbesserter konstruktiver Auslegung. Die bisher weitgehend unbeachtete Temperaturerhöhung in der Gleitschienen – Zahnriemenkombination durch die eingebrachte Reibleistung sollte zukünftig ein weiteres Auslegungskriterium darstellen. Eine erste Annäherung an dieses Problem kann durch die Form: p Flächenpressung v Gleitgeschwindigkeit µ Reibungszahl A Kontaktfläche / jeweilige Oberfläche K Wärmeabgabekoeffizient DT max. zul. Temperaturerhöhung K= f (µ, p, v, Gleitschienenmaterial, Zahnriemenausführung, Maschinenkonstante…) gezeigt werden. Für die Ermittlung des Wärmeabgabekoeffizienten sind entsprechende Untersuchungen durchzuführen und Zusammenhänge zu ermitteln. Bestimmte Praxiseinflüsse (Umgebungstemperaturschwankungen, Verschmutzung, Stöße, Montagefehler) sind in die bisherigen Untersuchungen noch nicht eingeflossen, sollten aber nicht unbeachtet bleiben. Durch eine vorteilhafte Auslegung der Förderanlagen kann eine höhere Zuverlässigkeit bei geringeren Wechselintervallen und niedrigeren Kosten für den Betrieb erreicht werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Kommissionierung im Warendistributionszentrum müssen die heterogenen Produkte mit den unterschiedlichsten Eigenschaften stabil gestapelt und dürfen während des Transportes nicht beschädigt werden. Für eine automatische Kommissionieranlage wurde das neue Optimierungsprogramm UNIT_OrderPacking für die Planung und Optimierung der Ladeeinheiten eingesetzt. Nach der Problemstellung werden die Einflussfaktoren analysiert und definiert. Die Strategien zur Berücksichtigung solcher Faktoren im Optimierungsverfahren werden vorgestellt. Das gesamte Optimierungsverfahren wird anschließend in Teilproblemen dargestellt. Für jedes Teilproblem werden die Lösungsstrategien nach der Problemanalyse durch Verallgemeinerung der Lösungsvorgehensweise abgeleitet und zusammengefasst. Folgende Teilprobleme werden relativ ausführlich behandelt: * die Bewertung und Selektion eines Packobjektes für jeden Packschritt hinsichtlich der Tragfähigkeit, des Gewichtes und der Warengruppe, * die Kraftübertragung der Packobjekte von oben nach unten und die „Relationship Matrix“ der Packobjekte sowie * die Strategien und Prioritäten für das Anordnen und Stapeln der Packobjekte im Packraum.