207 resultados para RBG-Modul


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand dieser Arbeit ist die Untersuchung der smektischen Phasen von Polysiloxanen mit flüssigkristallinen Seitengruppen (LC-Polysiloxane). Der erste Teil der vorliegenden Arbeit befasste sich mit der Herstellung verschiedener flüssigkristalliner ferroelektrischer Polysiloxane. Die Polymere wurden in Bezug auf das verwendete Polymerrückgrat (Homo- und Copolysiloxan) sowie durch den zusätzlichen Einbau von vernetzbaren Seitengruppen variiert. Im zweiten Teil der Arbeit wurden die Eigenschaften der smektischen Phasen der hergestellten Substanzen näher untersucht. Ein erster Untersuchungsgegenstand war das Dehnungsverhalten von freistehenden flüssigkristallinen Elastomerfilmen (LCE). Bei der Verwendung eines Polymers, in dem nur ein Teil des Polysiloxanrückgrats mit Seitengruppen substituiert ist, wird die uniaxiale Dehnung des Films parallel zu den smektischen Schichten durch eine gleichmäßige Kontraktion in der Filmebene und parallel zur Schichtnormalen ausgeglichen, was auf einen außergewöhnlich niedrigen smektischen Schichtkompressionsmodul zurückzuführen ist. Im Gegensatz dazu ist dieser Modul bei den Homopolymersystemen so groß, dass praktisch senkrecht zu den smektischen Schichten keine Kontraktion stattfindet. Ein zweiter Untersuchungsgegenstand der Netzwerkbildung bestand in der Bestimmung der dynamisch-mechanischen Eigenschaften der LC-Polysiloxane mittels eines Oszillationsrheometers. Hier erfolgten die Messungen von Speicher- und Verlustmodul in Abhängigkeit vom Polymerrückgrat und von der Vernetzung. Die unvernetzten Systeme zeigten in den smektischen Phasen (oberhalb Tg) noch – im wesentlichen – Festkörpereigenschaften (physikalische Vernetzung) mit einem dominierenden Speichermodul beim LC-Homopolysiloxan. Beim LC-Copolysiloxan haben beide Module eine gleiche Größenordnung. Am Phasenübergang in die isotrope Phase wurden beide Module absolut kleiner, der Verlustmodul aber relativ größer. In der isotropen Phase verhalten sich die LC-Polymere damit überwiegend wie viskose Schmelzen. Außerdem korrelierten die mittels DSC bestimmten Phasenübergangstemperaturen mit einer Änderung der dynamisch-mechanischen Eigenschaften. Nach der Vernetzung dominierte der Speichermodul sowohl beim LC-Homo- als auch beim LC-Copolysiloxan bis in die isotrope Phase, und es war aufgrund der Bildung einer festen Netzwerkstruktur keine Abhängigkeit der Module von Phasenübergängen mehr erkennbar. Als dritter Untersuchungsgegenstand wurde der Phasenübergang zwischen den beiden smektischen Phasen (SmC* nach SmA*) der flüssigkristallinen Polysiloxane näher behandelt. Als wichtigstes Ergebnis ist festzuhalten, dass die verdünnten LC-Polysiloxane an diesem Übergang fast keine Schichtdickenänderung aufweisen. Dazu wurde jeweils die röntgenographisch ermittelte Schichtdicke mit der aus den optischen Tiltwinkeln theoretisch berechneten Schichtdicke verglichen. Dadurch konnte gezeigt werden, dass sich die Phasenübergänge nach dem de Vries-Modell verhalten. Damit konnte zum ersten Mal an Polymersystemen ein de Vries-Verhalten nachgewiesen werden. Im Gegensatz dazu zeigte das Homopolysiloxan mit dem Dreiringmesogen beim Übergang von SmC* nach SmA* einen ausgeprägten Sprung in der Schichtdicke. Wie auch durch DSC-Messungen nachweisbar, lag ein Phasenübergang 1. Ordnung vor. Bei den LC-Copolysiloxanen liegt dagegen ein Phasenübergang 2. Ordnung vor. Schließlich wurde die Schichtdicke unter dem Einfluss der Vernetzung untersucht. Beim LC-Copolysiloxan mit dem Dreiringmesogen und einem Anteil an vernetzbaren Gruppen von 15 % wurde eine Stabilisierung der smektischen Phasen erreicht. Zum einen war die Änderung der Schichtdicke am SmC*-SmA*-Phasenübergang geringer im Vergleich zum unvernetzten System und zum anderen war noch 50 °C über der ursprünglichen Klärtemperatur eine smektische Schichtstruktur röntgenographisch nachzuweisen. Insgesamt ist es mit den verschiedenen Untersuchungsmethoden gelungen, einen systematischen Unterschied zwischen smektischen Homo- und Copolysiloxanen aufzuzeigen, der seinen Ursprung – aller Wahrscheinlichkeit nach – in der Mikrophasenseparation von Mesogenen und Polysiloxanketten findet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Etablierung von Expressionsystemen für Gene der Indolalkaloid-Biosynthese unter besonderer Berücksichtigung von Cytochrom P450-Enzymen In der vorliegenden Arbeit wurden Enzyme aus der Arzneipflanze Rauvolfia serpentina bearbeitet. Es wurde versucht, das an der Biosynthese des Alkaloids Ajmalin beteiligte Cytochrom P450-Enzym Vinorin-Hydroxylase heterolog und funktionell zu exprimieren. Ein zunächst unvollständiger, unbekannter Cytochrom P450-Klon konnte komplettiert und eindeutig mittels heterologer Expression in sf9-Insektenzellen als Cinnamoyl-Hydroxylase identifiziert werden. Die Tauglichkeit des Insektenzellsystems für die Untersuchung der Vinorin-Hydroxylase ist auf Grund der deacetylierenden Wirkung der Insektenzellen auf das Substrat Vinorin nicht gegeben. Im Rahmen des Homology Cloning Projektes konnten mehrere Volllängenklone und diverse Teilsequenzen von neuen Cytochrom P450-Klonen ermittelt werden. Ausserdem wurde durch das unspezifische Binden eines degenerierten Primers ein zusätzlicher Klon gefunden, der der Gruppe der löslichen Reduktasen zugeordnet werden konnte. Diese putative Reduktase wurde auf die Aktivität von mehreren Schlüsselenzymen der Ajmalin-Biosynthese durch heterologe Expression in E.coli und anschliessende HPLC-gestützte Aktivitätstests ohne Erfolg geprüft. Bedingt durch die Untauglichkeit des Insektenzellsystems für die Identifizierung der Vinorin-Hydroxylase, wurde ein neuartiges Modul-gestütztes, pflanzliches Expressionsystem etabliert, um vorhandene P450-Volllängenklone auf Vinorin- Hydroxylaseaktivität testen zu können. Die Funktionalität des Systems konnte durch die heterologe Expression der Polyneuridinaldehyd Esterase bestätigt werden. Trotzdem war es bis jetzt nicht möglich, die Cinnamoyl-Hydroxylase als Kontrollenzym für das pflanzliche System oder aber die gesuchte Vinorin- Hydroxylase in aktiver Form zu exprimieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this thesis foliation boudinage and related structures have been studied based on field observations and numerical modeling. Foliation boudinage occurs in foliated rocks independent of lithology contrast. The developing structures are called ‘Foliation boudinage structures (FBSs)’ and show evidence for both ductile and brittle deformation. They are recognized in rocks by perturbations in monotonous foliation adjacent to a central discontinuity, mostly filled with vein material. Foliation boudinage structures have been studied in the Çine Massif in SW-Turkey and the Furka Pass-Urseren Zone in central Switzerland. Four common types have been distinguished in the field, named after vein geometries in their boudin necks in sections normal to the boudin axis: lozenge-, crescent-, X- and double crescent- type FBSs. Lozengetype FBSs are symmetric and characterized by lozenge-shaped veins in their boudin neck with two cusps facing opposite sides. A symmetrical pair of flanking folds occurs on the two sides of the vein. Crescent-type FBSs are asymmetric with a single smoothly curved vein in the boudin neck, with vein contacts facing to one side. X- and double crescent- type FBSs are asymmetric. The geometry of the neck veins resembles that of cuspate-lobate structures. The geometry of flanking structures is related to the shape of the veins. The veins are mostly filled with massive quartz in large single crystals, commonly associated with tourmaline, feldspar and biotite and in some cases with chlorite. The dominance of large facetted single quartz crystals and spherulitic chlorite in the veins suggest that the minerals grew into open fluidfilled space. FLAC experiments show that fracture propagation during ductile deformation strongly influences the geometry of developing veins. The cusps of the veins are better developed in the case of propagating fractures. The shape of the boudin neck veins in foliation boudinage depends on the initial orientation and shape of the fracture, the propagation behaviour of the fracture, the geometry of bulk flow, and the stage at which mineral filling takes place. A two dimensional discrete element model was used to study the progressive development of foliation boudinage structures and the behavior of visco-elastic material deformed under pure shear conditions. Discrete elements are defined by particles that are connected by visco-elastic springs. Springs can break. A number of simulations was Abstract vii performed to investigate the effect of material properties (Young’s modulus, viscosity and breaking strength) and anisotropy on the developing structures. The models show the development of boudinage in single layers, multilayers and in anisotropic materials with random mica distribution. During progressive deformation different types of fractures develop from mode I, mode II to the combination of both. Voids develop along extension fractures, at intersections of conjugate shear fractures and in small pull-apart structures along shear fractures. These patterns look similar to the natural examples. Fractures are more localized in the models where the elastic constants are low and the competence contrast is high between the layers. They propagate through layers where the constants are high and the competence contrast is relatively low. Flow localize around these fractures and voids. The patterns similar to symmetric boudinage structures and extensional neck veins (e.g. lozenge type) more commonly develop in the models with lower elastic constants and anisotropy. The patterns similar to asymmetric foliation boudinage structures (e.g. X-type) develop associated with shear fractures in the models where elastic constants and anisotropy of the materials are relatively high. In these models boudin neck veins form commonly at pull-aparts along the shear fractures and at the intersection of fractures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

It is currently widely accepted that the understanding of complex cell functions depends on an integrated network theoretical approach and not on an isolated view of the different molecular agents. Aim of this thesis was the examination of topological properties that mirror known biological aspects by depicting the human protein network with methods from graph- and network theory. The presented network is a partial human interactome of 9222 proteins and 36324 interactions, consisting of single interactions reliably extracted from peer-reviewed scientific publications. In general, one can focus on intra- or intermodular characteristics, where a functional module is defined as "a discrete entity whose function is separable from those of other modules". It is found that the presented human network is also scale-free and hierarchically organised, as shown for yeast networks before. The interactome also exhibits proteins with high betweenness and low connectivity which are biologically analyzed and interpreted here as shuttling proteins between organelles (e.g. ER to Golgi, internal ER protein translocation, peroxisomal import, nuclear pores import/export) for the first time. As an optimisation for finding proteins that connect modules, a new method is developed here based on proteins located between highly clustered regions, rather than regarding highly connected regions. As a proof of principle, the Mediator complex is found in first place, the prime example for a connector complex. Focusing on intramodular aspects, the measurement of k-clique communities discriminates overlapping modules very well. Twenty of the largest identified modules are analysed in detail and annotated to known biological structures (e.g. proteasome, the NFκB-, TGF-β complex). Additionally, two large and highly interconnected modules for signal transducer and transcription factor proteins are revealed, separated by known shuttling proteins. These proteins yield also the highest number of redundant shortcuts (by calculating the skeleton), exhibit the highest numbers of interactions and might constitute highly interconnected but spatially separated rich-clubs either for signal transduction or for transcription factors. This design principle allows manifold regulatory events for signal transduction and enables a high diversity of transcription events in the nucleus by a limited set of proteins. Altogether, biological aspects are mirrored by pure topological features, leading to a new view and to new methods that assist the annotation of proteins to biological functions, structures and subcellular localisations. As the human protein network is one of the most complex networks at all, these results will be fruitful for other fields of network theory and will help understanding complex network functions in general.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A thorough investigation was made of the structure-property relation of well-defined statistical, gradient and block copolymers of various compositions. Among the copolymers studied were those which were synthesized using isobornyl acrylate (IBA) and n-butyl acrylate (nBA) monomer units. The copolymers exhibited several unique properties that make them suitable materials for a range of applications. The thermomechanical properties of these new materials were compared to acrylate homopolymers. By the proper choice of the IBA/nBA monomer ratio, it was possible to tune the glass transition temperature of the statistical P(IBA-co-nBA) copolymers. The measured Tg’s of the copolymers with different IBA/nBA monomer ratios followed a trend that fitted well with the Fox equation prediction. While statistical copolymers showed a single glass transition (Tg between -50 and 90 ºC depending on composition), DSC block copolymers showed two Tg’s and the gradient copolymer showed a single, but very broad, glass transition. PMBL-PBA-PMBL triblock copolymers of different composition ratios were also studied and revealed a microphase separated morphology of mostly cylindrical PMBL domains hexagonally arranged in the PBA matrix. DMA studies confirmed the phase separated morphology of the copolymers. Tensile studies showed the linear PMBL-PBA-PMBL triblock copolymers having a relatively low elongation at break that was increased by replacing the PMBL hard blocks with the less brittle random PMBL-r-PMMA blocks. The 10- and 20-arm PBA-PMBL copolymers which were studied revealed even more unique properties. SAXS results showed a mixture of cylindrical PMBL domains hexagonally arranged in the PBA matrix, as well as lamellar. Despite PMBL’s brittleness, the triblock and multi-arm PBA-PMBL copolymers could become suitable materials for high temperature applications due to PMBL’s high glass transition temperature and high thermal stability. The structure-property relation of multi-arm star PBA-PMMA block copolymers was also investigated. Small-angle X-ray scattering revealed a phase separated morphology of cylindrical PMMA domains hexagonally arranged in the PBA matrix. DMA studies found that these materials possess typical elastomeric behavior in a broad range of service temperatures up to at least 250°C. The ultimate tensile strength and the elastic modulus of the 10- and 20-arm star PBA-PMMA block copolymers are significantly higher than those of their 3-arm or linear ABA type counterparts with similar composition, indicating a strong effect of the number of arms on the tensile properties. Siloxane-based copolymers were also studied and one of the main objectives here was to examine the possibility to synthesize trifluoropropyl-containing siloxane copolymers of gradient distribution of trifluoropropyl groups along the chain. DMA results of the PDMS-PMTFPS siloxane copolymers synthesized via simultaneous copolymerization showed that due to the large difference in reactivity rates of 2,4,6-tris(3,3,3-trifluoropropyl)-2,4,6-trimethylcyclotrisiloxane (F) and hexamethylcyclotrisiloxane (D), a copolymer of almost block structure containing only a narrow intermediate fragment with gradient distribution of the component units was obtained. A more dispersed distribution of the trifluoropropyl groups was obtained by the semi-batch copolymerization process, as the DMA results revealed more ‘‘pure gradient type’’ features for the siloxane copolymers which were synthesized by adding F at a controlled rate to the polymerization of the less reactive D. As with trifluoropropyl-containing siloxane copolymers, vinyl-containing polysiloxanes may be converted to a variety of useful polysiloxane materials by chemical modification. But much like the trifluoropropyl-containing siloxane copolymers, as a result of so much difference in the reactivities between the component units 2,4,6-trivinyl-2,4,6-trimethylcyclotrisiloxane (V) and hexamethylcyclotrisiloxane (D), thermal and mechanical properties of the PDMS-PMVS copolymers obtained by simultaneous copolymerization was similar to those of block copolymers. Only the copolymers obtained by semi-batch method showed properties typical for gradient copolymers.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Wintersemester 2006/07 wurde am Fachbereich Translations-, Sprach- und Kulturwissenschaft der Johannes Gutenberg Universität Mainz in Germersheim, in Zusammenarbeit mit der Fakultät für Natur- und Geisteswissenschaften der Universität des brasilianischen Bundesstaates São Paulo (Universidade Estadual Paulista Júlio de Mesquita Filho, UNESP) in Assis, das Pilotprojekt Teletandem initiiert. Ein Teil des Pilotprojektes, die Einführung, Entwicklung und Implementierung der Lehr- und Lernmethode Teletandem als Modul im BA-/MA-Studiengang Portugiesisch am FTSK, ist Grundlage der vorliegenden Dissertation.rnTeletandem (TT) ist eine innovative Methode zum autonomen, kooperativen Fremdsprachenlernen in Tandempaaren über das Internet. Die TT-Paare setzen sich aus einem brasilianischen und einem deutschen Studierenden zusammen, die sich ein- bis zweimal pro Woche im Internet treffen und mittels Webcam und Headset ‚unter vier Augen’ synchron, audiovisuell, mündlich und schriftlich miteinander kommunizieren. Dabei entscheiden sie gemeinsam mit ihrem Partner wann sie sich treffen, über was sie sprechen und wie sie die Teletandemsitzungen didaktisch gestalten. Durch die authentische Kommunikation mit Muttersprachlern erwerben und vertiefen die Teilnehmer zielgerichtet ihre Kenntnisse der fremden Sprache und Kultur.rnIn Teil I dieser Dissertation wird anhand einer Auswahl behavioristischer, kognitivistischer und konstruktivistischer (Lern-)Theorien wissenschaftlich untersucht, wie wir lernen, welche Faktoren unser Lernen positiv beeinflussen und welche Implikationen dies für institutionelles Lernen hat. Die Erkenntnisse werden auf das (Fremdsprachen-)Lernen im TT transferiert und es wird untersucht, inwieweit die Anwendung der Methode die Lernprozesse der Studierenden (und Lehrkräfte) begünstigt. In Teil 2 werden die Geschichte des Lernens im (Tele-)Tandem sowie die theoretische Grundlage und die Prinzipien von TT erläutert und das Pilotprojekt vorgestellt. Des Weiteren werden die im Rahmen des Projektes entwickelten vier Teletandemmodule (Modul Teletandem I, Modul Teletandem II, Intensivkurs Portugiesisch im Teletandem, Modul Fremdsprachenlernen im Teletandem), die von Studierenden des FTSK, des Karlsruher Instituts für Technologie (KIT) und der UNESP durchgeführt wurden, dargestellt. Im dritten Teil werden die Ergebnisse der Evaluation der Teletandemkurse vorgestellt und analysiert.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The upgrade of the Mainz Mikrotron (MAMI) electron accelerator facility in 2007 which raised the beam energy up to 1.5,GeV, gives the opportunity to study strangeness production channels through electromagnetic process. The Kaon Spectrometer (KAOS) managed by the A1 Collaboration, enables the efficient detection of the kaons associated with strangeness electroproduction. Used as a single arm spectrometer, it can be combined with the existing high-resolution spectrometers for exclusive measurements in the kinematic domain accessible to them.rnrnFor studying hypernuclear production in the ^A Z(e,e'K^+) _Lambda ^A(Z-1) reaction, the detection of electrons at very forward angles is needed. Therefore, the use of KAOS as a double-arm spectrometer for detection of kaons and the electrons at the same time is mandatory. Thus, the electron arm should be provided with a new detector package, with high counting rate capability and high granularity for a good spatial resolution. To this end, a new state-of-the-art scintillating fiber hodoscope has been developed as an electron detector.rnrnThe hodoscope is made of two planes with a total of 18432 scintillating double-clad fibers of 0.83 mm diameter. Each plane is formed by 72 modules. Each module is formed from a 60deg slanted multi-layer bundle, where 4 fibers of a tilted column are connected to a common read out. The read-out is made with 32 channels of linear array multianode photomultipliers. Signal processing makes use of newly developed double-threshold discriminators. The discriminated signal is sent in parallel to dead-time free time-to-digital modules and to logic modules for triggering purposes.rnrnTwo fiber modules were tested with a carbon beam at GSI, showing a time resolution of 220 ps (FWHM) and a position residual of 270 microm m (FWHM) with a detection efficiency epsilon>99%.rnrnThe characterization of the spectrometer arm has been achieved through simulations calculating the transfer matrix of track parameters from the fiber detector focal plane to the primary vertex. This transfer matrix has been calculated to first order using beam transport optics and has been checked by quasielastic scattering off a carbon target, where the full kinematics is determined by measuring the recoil proton momentum. The reconstruction accuracy for the emission parameters at the quasielastic vertex was found to be on the order of 0.3 % in first test realized.rnrnThe design, construction process, commissioning, testing and characterization of the fiber hodoscope are presented in this work which has been developed at the Institut für Kernphysik of the Johannes Gutenberg - Universität Mainz.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Durch steigende Energiekosten und erhöhte CO2 Emission ist die Forschung an thermoelektrischen (TE) Materialien in den Fokus gerückt. Die Eignung eines Materials für die Verwendung in einem TE Modul ist verknüpft mit der Gütezahl ZT und entspricht α2σTκ-1 (Seebeck Koeffizient α, Leitfähigkeit σ, Temperatur T und thermische Leitfähigkeit κ). Ohne den Leistungsfaktor α2σ zu verändern, soll ZT durch Senkung der thermischen Leitfähigkeit mittels Nanostrukturierung angehoben werden.rnBis heute sind die TE Eigenschaften von den makroskopischen halb-Heusler Materialen TiNiSn und Zr0.5Hf0.5NiSn ausgiebig erforscht worden. Mit Hilfe von dc Magnetron-Sputterdeposition wurden nun erstmals halbleitende TiNiSn und Zr0.5Hf0.5NiSn Schichten hergestellt. Auf MgO (100) Substraten sind stark texturierte polykristalline Schichten bei Substrattemperaturen von 450°C abgeschieden worden. Senkrecht zur Oberfläche haben sich Korngrößen von 55 nm feststellen lassen. Diese haben Halbwertsbreiten bei Rockingkurven von unter 1° aufgewiesen. Strukturanalysen sind mit Hilfe von Röntgenbeugungsexperimenten (XRD) durchgeführt worden. Durch Wachstumsraten von 1 nms 1 konnten in kürzester Zeit Filmdicken von mehr als einem µm hergestellt werden. TiNiSn zeigte den höchsten Leistungsfaktor von 0.4 mWK 2m 1 (550 K). Zusätzlich wurde bei Raumtemperatur mit Hilfe der differentiellen 3ω Methode eine thermische Leitfähigkeit von 2.8 Wm 1K 1 bestimmt. Es ist bekannt, dass die thermische Leitfähigkeit mit der Variation von Massen abnimmt. Weil zudem angenommen wird, dass sie durch Grenzflächenstreuung von Phononen ebenfalls reduziert wird, wurden Übergitter hergestellt. Dabei wurden TiNiSn und Zr0.5Hf0.5NiSn nacheinander abgeschieden. Die sehr hohe Kristallqualität der Übergitter mit ihren scharfen Grenzflächen konnte durch Satellitenpeaks und Transmissionsmikroskopie (STEM) nachgewiesen werden. Für ein Übergitter mit einer Periodizität von 21 nm (TiNiSn und Zr0.5Hf0.5NiSn jeweils 10.5 nm) ist bei einer Temperatur von 550 K ein Leistungsfaktor von 0.77 mWK 2m 1 nachgewiesen worden (α = 80 µVK 1; σ = 8.2 µΩm). Ein Übergitter mit der Periodizität von 8 nm hat senkrecht zu den Grenzflächen eine thermische Leitfähigkeit von 1 Wm 1K 1 aufgewiesen. Damit hat sich die Reduzierung der thermischen Leitfähigkeit durch die halb-Heusler Übergitter bestätigt. Durch die isoelektronischen Eigenschaften von Titan, Zirkonium und Hafnium wird angenommen, dass die elektrische Bandstruktur und damit der Leistungsfaktor senkrecht zu den Grenzflächen nur schwach beeinflusst wird.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This dissertation describes the synthesis of surface attached hydrogel biomaterials, characterization of their properties, evaluation of structuring concepts and the investigation of these materials in the isolation of DNA from human whole blood. Photosensitive hydrogel precursor materials on the basis of hydroxyethylmethacrylate (HEMA) were synthesized by free radical polymerization. In order to obtain surface bound hydrogel films, the precursors were deposited on a suitable substrate and subsequently irradatiated with UV - light to accomplish the formation of crosslinks in the film and create surface attachment. The composition of the polymerization precursor materials was determined by comprehensive NMR and GPC studies, revealing the copolymerizationrnbehaviour of the used monomers - HEMA derivatives and the photocrosslinkerrnMABP - and their respective distribution in the hydrogel precursors. The degree of crosslinking of the hydrogels was characterized with UV/vis spectroscopy. Stress-strain measurements were conducted in order to investigate the mechanical properties of the biomaterials. Moreover, the swelling process and biomolecule adsorption properties of the hydrogels were investigated with SPR/OW spectroscopy. For this, the deposition and binding of the hydrogels on gold or SiO2 surfaces was facilitated with photocrosslinkable adhesion promotors. The produced hydrogels were mechanically rigid and stablernunder the conditions of PCR and blood lysis. Furthermore, strategies towards the increase of hydrogel surface structure and porosity with porosigens, 2D laser interference lithography and photocleavable blockcopolymers were investigated. At last, a combinatorial strategy was used for the determination of the usefulness of hydrogels for the isolation from DNA from blood. A series of functionalized hydrogel precursors were synthesized, transferred to the surface inside a PCR tube and subsequently screened in regard to DNA adsorption properties with Taqman quantitative PCR. This approach yielded a promising candidate for a functional PCR tube coating that would allow the entire DNA isolation procedure being carried out in a single reaction container.rnThereforce, the practical application of such macromolecular architectures can be envisioned to improve industrial DNA diagnostic processes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Let k := bar{F}_p for p > 2, W_n(k) := W(k)/p^n and X_n be a projective smooth W_n(k)-scheme which is W_{n+1}(k)-liftable. For all n > 1, we construct explicitly a functor, which we call the inverse Cartier functor, from a subcategory of Higgs bundles over X_n to a subcategory of flat Bundles over X_n. Then we introduce the notion of periodic Higgs-de Rham flows and show that a periodic Higgs-de Rham flow is equivalent to a Fontaine-Faltings module. Together with a p-adic analogue of Riemann-Hilbert correspondence established by Faltings, we obtain a coarse p-adic Simpson correspondence.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der Arbeit war es, die physiologische Funktion von 2-Adaptin zu charakterisieren. 2 Adaptin wurde 1998 erstmals von Takatsu et al. und Lewin et al. als mögliches Mitglied der Clathrin-Adapter-Proteinfamilie beschrieben. Seine genaue physiologische Funktion ist aber bis heute noch unklar. Bisherige Ergebnisse deuten darauf hin, das 2-Adaptin unabhängig von den AP-Komplexen wirkt. rnIn der HBV-Morphogenese ist eine spezielle Funktion von 2-Adaptin bekannt, da es dort nach seiner Ubiquitinierung durch Nedd4 als Adapter zwischen dem HBV L- und Core-Protein fungiert und Änderungen in der 2 Konzentration die HBV-Freisetzung blockieren.rn2-Adaptin besitzt neben den für die Clathrin-Adapter Proteine typischen Clathrin-bindenden Eigenschaften auch die Fähigkeit, Ubiquitin über sein UIM zu binden. Darüberhinaus wird 2-Adaptin durch seine Interaktion mit der Ubiquitin-Ligase Nedd4 selbst ubiquitiniert. Damit besitzt 2-Adaptin typische Eigenschaften eines Ubiquitin-Adapters. 2-Adaptin ist an MVBs lokalisiert und Abweichungen in der 2 Konzentration verändern die MVB-Morphologie. Zudem führt die Überexpression von 2-Adaptin zur Blockade der Freisetzung retroviraler VLPs und die 2 Depletion blockiert den lysosomalen Abbau von EGF, einem Substrat des endo-lysosomalen Proteintransports. Dies alles deutet auf eine mögliche Funktion von 2-Adaptin in diesem Transportsystem hin, welche in dieser Arbeit näher untersucht wurde.rnEs konnte gezeigt werden, dass die Depletion von 2-Adaptin den Abbau von endogenen (z.B. EGF, ubiquitinierte Proteine) und exogenen (z.B. das retrovirale MLV.gag-Polyprotein) Substraten des endo-lysosomalen Weges inhibiert, während sie bei 2 Überexpression verstärkt abgebaut werden. Alle bisher identifizierten „Substrate“ von 2 Adaptin, also Proteine, die durch überschüssiges 2-Adaptin abgebaut werden, besitzen eine Verbindung zum endo-lysosomalen System und / oder zur Ubiquitin-Maschinerie der Zelle. Weitere Hinweise auf eine Rolle von 2 Adaptin im MVB-Weg lieferte die Identifikation von Vps28 und Chmp2A als spezifische Interaktionspartner von 2-Adaptin. Über Vps28 erhält -Adaptin direkten Zugang zum ESCRT-I- und über Chmp2A zum ESCRT-III-Komplex. rnZudem konnte neben dem UIM eine PH-Domäne in 2-Adaptin als wichtige funktionelle Domäne identifiziert werden. Sie stellt das Modul für die Interaktion mit Rab7 dar, welche erstmals gezeigt werden konnte. Auch die Interaktion mit Rab7 deutet auf eine Rolle von 2 Adaptin im endo-lysosomalen Transportsystem hin, da Rab7 an späten Endosomen lokalisiert ist und u.a. die Fusion der MVBs mit den Lysosomen vermittelt. Da die Auswirkungen der Rab7-Überexpression und Depletion auf MLV.gag denen der 2 Überexpression bzw. Depletion entsprechen, liegt die Vermutung nahe, dass 2-Adaptin an einem ähnlich späten Schritt im endo-lysosomalen Transportsystem wirkt wie Rab7. Jedoch blockiert überschüssiges 2 Adaptin die ESCRT-abhängige VLP-Ausschleusung an der Plasmamembran und fungiert daher möglicherweise als negativer Regulator der ESCRT-Kaskade. Da die Überexpression von -Adaptin aber gleichzeitig zum vermehrten lysosomalen Abbau führt, ist eine Funktion von 2-Adaptin bei der MVB-Lysosomen-Fusion wenig wahrscheinlich. Einer solchen Funktion widerspricht auch, dass die intrazelluläre Konzentration von Rab7 und Vps28 durch überschüssiges 2-Adaptin reduziert werden. rnAls dritte funktionell wichtige Domäne in 2-Adaptin konnte ein LIR-Motiv identifiziert werden, über welches -Adaptin mit dem Autophagie-Markerprotein LC3 interagieren kann. Die Interaktion mit LC3, und damit die Verbindung zur Autophagie-Machinerie, liefert eine mögliche Erklärung für den vermehrten Abbau bei 2-Überexpression und den Abbau von Proteinen auf der MVB-Oberfläche. Dabei induziert 2-Adaptin nicht die Autophagie per se, sondern scheint als Autophagie-Adapter zu wirken, der seine Substrate, z.B. MVBs, selektiv dem Abbau durch Autophagie zuführt. rnrnEine mögliche Rolle von 2-Adaptin im zum Lysosom hin gerichteten zellulären Transport konnte bestätigt werden, wobei 2-Adaptin dabei verschiedene Funktionen übernimmt: rn als Ubiquitin-Adapter im endo-lysosomalen System, rn als negativer Regulator der ESCRT-Kaskadern und / oder als Autophagie-Adapter.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thermoelektrizität beschreibt die reversible Beeinflussung und Wechselwirkung von Elektrizität und Temperatur T in Systemen abseits des thermischen Gleichgewichtes. In diesen führt ein Temperaturgradient entlang eines thermoelektrischen Materials zu einem kontinuierlichen Ungleichgewicht in der Energieverteilung der Ladungsträger. Dies hat einen Diffusionsstrom der energiereichen Ladungsträger zum kalten Ende und der energiearmen Ladungsträger zum heißen Ende zur Folge. Da in offenen Stromkreisen kein Strom fließt, wird ein Ungleichgewicht der Ströme über das Ausbilden eines elektrischen Feldes kompensiert. Die dadurch entstehende Spannung wird als Seebeck Spannung bezeichnet. Über einen geeigneten Verbraucher, folgend aus dem Ohm'schen Gesetz, kann nun ein Strom fließen und elektrische Energie gewonnen werden. Den umgekehrten Fall beschreibt der sogenannte Peltier Effekt, bei dem ein Stromfluss durch zwei unterschiedliche miteinander verbundene Materialien ein Erwärmen oder Abkühlen der Kontaktstelle zur Folge hat. Die Effizienz eines thermoelektrischen Materials kann über die dimensionslose Größe ZT=S^2*sigma/kappa*T charakterisiert werden. Diese setzt sich zusammen aus den materialspezifischen Größen der elektrischen Leitfähigkeit sigma, der thermischen Leitfähigkeit kappa und dem Seebeck Koeffizienten S als Maß der erzeugten Spannung bei gegebener Temperaturdifferenz. Diese Arbeit verfolgt den Ansatz glaskeramische Materialien mit thermoelektrischen Kristallphasen zu synthetisieren, sie strukturell zu charakterisieren und ihre thermoelektrischen Eigenschaften zu messen, um eine Struktur-Eigenschaft Korrelation zu erarbeiten. Hierbei werden im Detail eine elektronenleitende (Hauptphase SrTi_xNb_{1-x}O_3) sowie eine löcherleitende Glaskeramik (Hauptphase Bi_2Sr_2Co_2O_y) untersucht. Unter dem Begriff Glaskeramiken sind teilkristalline Materialien zu verstehen, die aus Glasschmelzen durch gesteuerte Kristallisation hergestellt werden können. Über den Grad der Kristallisation und die Art der ausgeschiedenen Spezies an Kristallen lassen sich die physikalischen Eigenschaften dieser Systeme gezielt beeinflussen. Glaskeramiken bieten, verursacht durch ihre Restglasphase, eine niedrige thermische Leitfähigkeit und die Fermi Energie lässt sich durch Dotierungen in Richtung des Leitungs- oder Valenzbands verschieben. Ebenso besitzen glaskeramische Materialien durch ihre Porenfreiheit verbesserte mechanische Eigenschaften gegenüber Keramiken und sind weniger anfällig für den Einfluss des Sauerstoffpartialdruckes p_{O_2} auf die Parameter. Ein glaskeramisches und ein gemischt keramisch/glaskeramisches thermoelektrisches Modul aus den entwickelten Materialien werden konzipiert, präpariert, kontaktiert und bezüglich ihrer Leistung vermessen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Proteinhomöostase wird in der Zelle von drei Stoffwechselwegen reguliert: den molekularen Chaperonen, dem Ubiquitin-Proteasom-System und dem autophagosomalen Abbauweg. Die (Makro)Autophagie verpackt und transportiert zytosolische Komponenten in Autophagosomen zu den Lysosomen, wo sie abgebaut werden. Eine Störung dieses Abbauwegs wirkt auf die Proteostase.rnIn dieser Dissertation wurde C. elegans als Modellorganismus zur Erforschung von Proteinstabilität genutzt. In einer RNAi-vermittelten Proteostase-Analyse von Chromosom I und ausgewählter zusätzlicher Gene wurde ein Wurmstamm, der ein Luc::GFP-Konstrukt im Muskel exprimiert, genutzt. Dieses Reporterprotein aggregiert unter Hitzestressbedingungen und diese Aggregation kann durch Modulatoren der Proteostase beeinflusst werden. Dabei wurden mögliche neue Faktoren der Proteinhomöostase entdeckt. Durch weitere Experimente bei denen die Aggregation von PolyQ35::YFP im AM140-System, der Paralyse-Phänotyp und die Akkumulation Thioflavin S-gefärbter Aggregate von Aβ42 im CL2006-Wurmstamm und die Effekte auf die Autophagie mittels eines GFP::LGG1-Konstrukt analysiert wurden, konnten rbg-1 und rbg-2 als neue Modulatoren der Proteinhomöostase, insbesondere der Autophagie, identifiziert werden.rnIm Säuger bilden beide Orthologe dieser Gene, RAB3GAP1 und RAB3GAP2 den heterodimeren RAB3GAP-Komplex, der bisher nur bekannt war für die Stimulation der Umwandlung der GTP-gebundenen aktiven Form zur GDP-gebundenen inaktiven Form der RAB GTPase RAB3. In Immunoblot-Analysen und mikroskopischen Darstellungen im Säugersystem konnte gezeigt werden, dass die Effekte auf die Proteostase über den autophagosomalen Abbauweg wirken. RAB3GAP1/2 wirken als positive Stimulatoren, wenn die Lipidierung von LC3-I und der autophagische Flux von LC3-II und p62/SQSTM1 betrachtet werden. Diese Effekte werden aber nicht über die RAB GTPase RAB3 vermittelt. Die Proteine FEZ1 und FEZ2 haben einen antagonistischen Effekt auf die Autophagie und wenn alle vier Komponenten RAB3GAP1, RAB3GAP2, FEZ1 und FEZ2 zusammen herunter- oder hochreguliert werden, heben sich diese Effekte auf. In Co-Immunopräzipitationen und proteomischen Analysen konnte keine direkte Interaktion zwischen dem RAB3GAP-Komplex und FEZ1/2 oder zu anderen Autophagie-Genen nachgewiesen werden.rnHier konnte der RAB3GAP-Komplex funktionell mit Proteostase und Autophagie in C. elegans und Säugerzellen assoziiert werden. Dieser Komplex zeigt Einflüsse auf die autophagosomale Biogenese indem sie die Proteostase und die Bildung von (prä)autophagosomalen Strukturen in C. elegans und die Lipidierung von LC3 und damit den autophagischen Flux der Autophagiesubstrate LC3-II und p62/SQSTM1 in Säugerzellen beeinflusst. Darüber hinaus wirkt RAB3GAP der komplexen Autophagie-Unterdrückung durch FEZ1 und FEZ2 entgegen. Somit konnte gezeigt werden, dass RAB3GAP als neuartiger Faktor auf die autophagosomale Biogenese und somit auf die Proteostase wirkt.rn

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.