140 resultados para Verlust
Resumo:
Aus dem tumorreaktiven T-Zellrepertoire der Melanompatientin Ma-Mel-86/INTH, bei der im Verlauf Lymphknotenmetastasen HLA-Klasse I-negativer Tumorzellen auftraten, wurden durch Stimulation mit autologen Tumorzellen CD8+ T-Zellklone isoliert und expandiert, die auf Melanomzellen der Patientin CSF2RA (engl. GM-CSF receptor alpha chain) in HLA-unabhängiger Weise erkannten. Aus einem der T-Zellklone wurde ein CSF2RA-reaktiver α:β-T-Zellrezeptor (TCR, engl. T-cell receptor) kloniert (Bezeichnung: TCR-1A.3/46). Die α-Kette des TCR enthielt die Domänen TRAV14/DV4*01, TRAJ48*01 und TRAC*01, die β-Kette die Domänen TRBV10-3*01, TRBD2*01, TRBJ2-7*01 und TRBC2*01. Durch Austausch der humanen konstanten gegen die homologen murinen Domänen wurde der TCR optimiert (Bezeichnung: cTCR-1A.3/46) und hinsichtlich seiner Expression und Funktionalität nach retroviralem Transfer in humane PBMC (engl. peripheral blood mononuclear cells) im 51Chromfreisetzungstest, im IFN-γ-ELISpot-Assay und in einem Degranulations-Assay validiert. TCR-transgene T-Zellen lysierten nicht nur spezifisch die HLA-defizienten, CSF2RA+ Melanomlinien des Modells Ma-Mel-86, sondern erkannten auch Zelllinien verschiedener Spezies nach Transfektion von CSF2RA sowie Monozyten, Granulozyten, dendritische Zellen und ein breites Spektrum hämatologischer Malignome myeloiden Ursprungs ungeachtet deren HLA-Phänotypen. Lymphatische Zellen sowie CD34+ Blutstammzellen wurden in In vitro-Untersuchungen nicht erkannt. Der Zusatz von GM-CSF zu Zellen, die CSF2RA und CSF2RB exprimierten, inhibierte die Erkennung durch TCR-transgene PBMC, während die Koexpression der α- und der ß-Kette des GM-CSF-Rezeptors alleine keinen negativen Effekt auf die Erkennung hatte. Daraus war zu schließen, dass CSF2RA präferentiell freistehend und weniger nach Integration in den heteromultimerischen GM-CSF-Rezeptor-Komplex erkannt wurde. In der zweidimensionalen Collier-de-Perles-Visualisierung der IMGT-Datenbank (engl. International immunogenetics information system) wies der CSF2RA-reaktive TCR-1A.3/46 im Vergleich zu TCR von konventionellen, HLA-restringierten T-Zellen keine Besonderheiten auf. Darüber hinaus waren auch die von den HLA-unabhängigen T-Zellen exprimierten CD8-Moleküle identisch zu den CD8-Molekülen HLA-abhängiger CTL (engl. cytotoxic T lymphocytes). Die Präsenz von CD8-Molekülen förderte die HLA-unabhängige Erkennung von CSF2RA, schien aber dafür nicht zwingend erforderlich zu sein, da Antikörper gegen CD8 die Erkennung zu ca. 65 % blockierten und TCR-transgene CD4+ T-Zellen im Vergleich zu TCR-transduzierten CD8+ T-Zellen eine deutlich verringerte, aber noch erhaltene Funktionalität aufwiesen. Es ist derzeit nicht klar, ob HLA-unabhängige T-Zellen gegen CSF2RA im peripheren Blut der Patientin vorkamen, weil sie der im Tiermodell postulierten Thymusselektion MHC-unabhängiger TCR (Tikhonova et al., Immunity 36:79, 2012) entkommen waren, oder weil ein ursprünglich gegen einen HLA-Peptid-Komplex gerichteter TCR eine HLA-unabhängige Kreuzreaktivität aufwies. CSF2RA verbessert die Glucoseutilisation in malignen Zellen, und es wurden ihm embryotrophe Eigenschaften zugeschrieben (Spielholz et al., Blood 85:973, 1995; Sjöblom et al., Biol. Reprod. 67:1817, 2002). Damit kann CSF2RA malignes Wachstum fördern und ist somit ein potentielles Zielmolekül für die Immuntherapie. Seine HLA-unabhängige Erkennung würde sowohl die HLA-Vielfalt als auch den HLA-Verlust als typische Limitationen der T-Zellimmuntherapie umgehen. Zur Überprüfung der In vivo-Spezifität des HLA-unabhängigen TCR gegen CSF2RA und damit zum Ausschluss relevanter off-tumor-/on-target- bzw. off-tumor-/off-target-Effekte ist jedoch eine Testung in einem präklinischen Tiermodell erforderlich.
Resumo:
Accumulating evidence indicates that loss of physiological amyloid precursor protein (APP) function leads to enhanced susceptibility of neurons to cellular stress during brain aging. This study investigated the neuroprotective function of the soluble APP ectodomain sAPPα. Recombinant sAPPα protected primary hippocampal neurons and neuroblastoma cells from cell death induced by trophic factor deprivation. This protective effect was abrogated in APP-depleted neurons, but not in APLP1-, APLP2- or IGF1-R-deficient cells, indicating that expression of holo-APP is required for sAPPα-dependent neuroprotection. Strikingly, recombinant sAPPα, APP-E1 domain and the copper-binding growth factor-like domain (GFLD) of APP were able to stimulate PI3K/Akt survival signaling in different wildtype cell models, but failed in APP-deficient cells. An ADAM10 inhibitor blocking endogenous sAPPα secretion exacerbated neuron death in organotypic hippocampal slices subjected to metabolic stress, which could be rescued by exogenous sAPPα. Interestingly, sAPPα-dependent neuroprotection was unaffected in neurons of APP-ΔCT15 mice which lack the intracellular C-terminal YENPTY motif of APP. In contrast, sAPPα-dependent Akt signaling was completely abolished in APP mutant cells lacking the C-terminal G-protein interaction motif and by specifically blocking Gi/o-dependent signaling with pertussis toxin. Collectively, the present thesis provides new mechanistic insights into the physiological role of APP: the data suggest that cell surface APP mediates sAPPα-induced neuroprotection via Go-protein-coupled activation of the Akt pathway.
Resumo:
The blood-brain barrier (BBB) and the blood-spinal cord barrier (BSCB) separate the brain and the spinal cord from the circulating blood and are important for the maintenance of the CNS homeostasis. They build a physical barrier thereby protecting the CNS from pathogens and toxic agents, and their disruption plays a crucial role in the pathogenesis of several CNS disorders. In this thesis, the blood-CNS-barriers were studied via in vitro models in two case studies for neurodegenerative disorders, in particular Alzheimer’s disease (AD) and amyotrophic lateral sclerosis (ALS). The first model evaluates treatment possibilities of AD using nanotechnology-based strategies. Since the toxic amyloid-β42 (Aβ42) peptide plays a crucial role in the pathogenesis of AD, reduced generation or enhanced clearance of Aβ42 peptides are expected to modify the disease course in AD. Therefore, several Aβ42-lowering drugs like flurbiprofen had been tested in clinical trials, but most of them failed due to their low brain penetration. Here, flurbiprofen was embedded in polylactide (PLA) nanoparticles and its transport was examined in an in vitro BBB model. The embedding of flurbiprofen into the nanoparticles disguised its cytotoxic potential and enabled the administration of higher drug concentrations which resulted in a sufficient transport of the drug across an endothelial cell monolayer. These results demonstrate that non-permeable drugs can be transported efficiently via nanoparticles and that these nanotechnology-based strategies are a promising tool to generate novel therapeutic options for AD and other CNS diseases. rnThe focus of the second project was to investigate the impaired integrity of the BSCB in a mouse model for ALS. About 20% of all familial ALS cases are associated with missense mutations or small deletions in the gene that encodes Cu/Zn-superoxide dismutase 1 (SOD1). To date, the molecular mechanisms resulting in ALS are still unknown, but there is evidence that the disruption of the BSCB is one of the primary pathological events. In both familial and sporadic ALS patients, loss of endothelial integrity and endothelial cell damage was observed, and studies with SOD1 transgenic mice demonstrated that the BSCB disruption was found prior to motor neuron degeneration and neurovascular inflammation. Thus, an in vitro model for ALS endothelial cells was generated which exhibited comparable integrity characteristics and tight junction (TJ) protein expression profiles as isolated primary endothelial cells of the BSCB of SOD1 transgenic mice. In this, an alteration of the βcat/AKT/FoxO1 pathway, which regulates the expression of the TJ protein claudin-5, could be observed. These data furthermore indicate that ALS is a neurovascular disease, and understanding of the primary events in ALS pathogenesis will hopefully provide ideas for the development of new therapeutic strategies. rn
Resumo:
Die nahe verwandten T-box Transkriptionsfaktoren TBX2 und TBX3 werden in zahlreichen humanen Krebsarten überexprimiert, insbesondere in Brustkrebs und Melanomen. Die Überexpression von TBX2 und TBX3 hat verschiedene zelluläre Effekte, darunter die Unterdrückung der Seneszenz, die Förderung der Epithelialen-Mesenchymalen Transition sowie invasive Zellmotilität. Im Gegensatz dazu führt ein Funktionsverlust von TBX3 und der meisten anderen humanen T-box-Gene zu haploinsuffizienten Entwicklungsdefekten. Durch Sequenzierung des Exoms von Brustkrebsproben identifizierten Stephens et al. fünf verschiedene Mutationen in TBX3, welche allesamt die DNA-bindende T-box-Domäne betrafen. Die In-Frame-Deletion N212delN wurde zweimal gefunden. Aus der Anhäufung der Mutationen innerhalb der T-box-Domäne wurde geschlossen, dass TBX3 bei Brustkrebs ein Treibergen ist. Da Mutationen innerhalb der T-box-Domäne im Allgemeinen zu einem Funktionsverlust führen, aber die onkogene Aktivität von TBX3 meist auf eine Überexpression zurückzuführen ist, wurden die potentiellen Treibermutationen hinsichtlich einer verminderten oder gesteigerten TBX3-Funktion geprüft. Getestet wurden zwei In-Frame Deletionen, eine Missense- sowie eine Frameshift-Mutante bezüglich der DNA-Bindung in vitro und der Zielgen-Repression in Zellkultur. Zusätzlich wurde eine in silico Analyse der im The Cancer Genome Atlas (TCGA) gelisteten somatischen TBX-Brustkrebsmutationen durchgeführt. Sowohl die experimentelle als auch die in silico Analyse zeigten, dass die untersuchten Mutationen vorwiegend zum Verlust der TBX3-Funktion führen. Um den Mechanismus der Genrepression durch TBX3 besser zu verstehen, wurden weitere TBX3-Mutanten bezüglich ihrer Wirkung auf die p21-Promotoraktivität (p21-Luc-Reporter und endogene p21-Expression) analysiert. Wildtypische p21-Luc-Repression zeigten die zwei Mutationen S674A (Phosphorylierung) und D275K (SUMOylierung), welche posttranslationale Modifikationen verhindern, sowie die Interaktion mit dem Tumorsuppressor Rb1 unterbindende M302A/V304A-Mutation. Erstaunlicherweise war die endogene p21-Repression dieser Mutanten stärker als die des wildtypischen TBX3-Proteins. Alle drei Mutationen führten zu einer Stabilisierung des TBX3-Proteins. Die ursprünglich in Patienten mit Ulna-Mamma Syndrom identifizierte, DNA-bindungsdefekte Y149S-Mutante konnte weder p21-Luc noch endogenes p21 reprimieren. Mutationen in potentiellen Interaktionsdomänen für die Bindung der Co-Repressoren Groucho und C-terminalem Bindeprotein zeigten sowohl auf p21-Luc als auch auf endogenes p21-Gen wildtypische Repressoraktivität, so dass diese Co-Repressoren in COS-7-Zellen wahrscheinlich nicht an der Repression dieses Gens beteiligt sind. Da TBX2 und TBX3 interessante Ziele zur direkten Krebsbekämpfung darstellen, sollte ein zelluläres Reportersystem zur Identifikation TBX2-inhibierender, pharmakologisch aktiver Substanzen etabliert werden. Dazu sollte eine stabile Zelllinie mit vom p21-Promotor reguliertem d2EGFP-Reporter und Doxyzyklin-induzierbarem TBX2-Protein erzeugt werden, da ektopische Expression von TBX2 genetische Instabilität und Toxizität induzieren kann. In dieser Zelllinie sollte die TBX2-Expression zur Reduktion der d2EGFP-Fluoreszenz führen. Zur Erzeugung der Zelllinie wurden die folgenden drei Konstrukte Schritt-für-Schritt stabil in das Genom der Zielzelllinie COS-7 integriert: pEF1alpha-Tet3G, pTRE3G-TBX2 und p21-d2EGFP. Während die Herstellung der doppelt stabilen COS-7-Zelllinie gelang, scheiterte die Herstellung der dreifach stabilen Zelllinie.
Resumo:
In der vorliegenden Dissertation wird ein Körpergrößengedächtnis untersucht. Es wird dargestellt, wie diese Information über die Reichweite der Fliege beim Lückenklettern unter kotrollierten Umweltbedingungen erworben und prozessiert wird. Zusätzlich wird geklärt, welche biochemischen Signale benötigt werden, um daraus ein lang anhalten-des Gedächtnis zu formen. Adulte Fliegen sind in der Lage, ihre Körperreichweite zu lernen. Naive Fliegen, die in der Dunkelheit gehalten wurden, versuchen erfolglos, zu breite Lücken zu überqueren, während visuell erfahrene Fliegen die Kletterversuche an ihre Körpergröße anpassen. Erfahrene kleine Fliegen scheinen Kenntnis ihres Nachteils zu haben. Sie kehren an Lückenbreiten um, welche ihre größeren Artgenos-sen durchaus noch versuchen. Die Taufliegen lernen die größenabhängige Reichweite über die visuelle Rückmeldung während des Laufens (aus Parallaxenbewegung). Da-bei reichen 15 min in strukturierter, heller Umgebung aus. Es gibt keinen festgelegten Beginn der sensiblen Phase. Nach 2 h ist das Gedächtnis jedoch konsolidiert und kann durch Stress nicht mehr zerstört oder durch sensorische Eingänge verändert werden. Dunkel aufgezogene Fliegen wurden ausgewählten Streifenmustern mit spezifischen Raumfrequenzen ausgesetzt. Nur die Insekten, welche mit einem als „optimal“ klassi-fizierten Muster visuell stimuliert wurden, sind in der Lage, die Körperreichweite einzu-schätzen, indem die durchschnittliche Schrittlänge in Verbindung mit der visuellen Wahrnehmung gebracht wird. Überraschenderweise ist es sogar mittels partieller Kompensation der Parallaxen möglich, naive Fliegen so zu trainieren, dass sie sich wie kleinere Exemplare verhalten. Da die Experimente ein Erlernen der Körperreich-weite vermuten lassen, wurden lernmutante Stämme beim Lückenüberwinden getes-tet. Sowohl die Ergebnisse von rut1- und dnc1-Mutanten, als auch das defizitäre Klet-tern von oc1-Fliegen ließ eine Beteiligung der cAMP-abhängigen Lernkaskade in der Protocerebralbrücke (PB) vermuten. Rettungsexperimente der rut1- und dnc1-Hinter-gründe kartierten das Gedächtnis in unterschiedliche Neuronengruppen der PB, wel-che auch für die visuelle Ausrichtung des Kletterns benötigt werden. Erstaunlicher-weise haben laterale lokale PB-Neurone und PFN-Neurone (Projektion von der PB über den fächerförmigen Körper zu den Noduli) verschiedene Erfordernisse für cAMP-Signale. Zusammenfassend weisen die Ergebnisse darauf hin, dass hohe Mengen an cAMP/PKA-Signalen in den latero-lateralen Elementen der PB benötigt werden, wäh-rend kolumnäre PFN-Neurone geringe oder keine Mengen an cAMP/PKA erfordern. Das Körperreichweitengedächtnis ist vermutlich das am längsten andauernde Ge-dächtnis in Drosophila. Wenn es erst einmal konsolidiert ist hält es länger als drei Wo-chen.rnAußerdem kann die Fruchtliege Drosophila melanogaster trainiert werden, die kom-plexe motorische Aufgabe des Lückenkletterns zu optimieren. Die trainierten Fliegen werden erfolgreicher und schneller beim Überqueren von Lücken, welche größer sind als sie selbst. Dabei existiert eine Kurzeitkomponente (STM), die 40 min nach dem ersten Training anhält. Nach weiteren vier Trainingsdurchläufen im Abstand von 20 min wird ein Langzeitgedächtnis (LTM) zum Folgetag geformt. Analysen mit Mutati-onslinien wiesen eine Beteiligung der cAMP-abhängigen Lernkaskade an dieser Ge-dächtnisform auf. Rettungsexperimente des rut2080-Hintergrunds kartierten sowohl das STM, als auch das LTM in PFN-Neuronen. Das STM kann aber ebenso in den alpha- und beta- Loben der Pilzkörper gerettet werden.rnLetztendlich sind wildtypische Fliegen sogar in der Lage, sich an einen Verlust eines Mittelbeintarsuses und dem einhergehenden Fehlen des Adhäsionsorgans am Tarsusende anzupassen. Das Klettern wird zwar sofort schlechter, erholt sich aber bis zum Folgetag wieder auf ein normales Niveau. Dieser neue Zustand erfordert ein Ge-dächtnis für die physischen Möglichkeiten, die nur durch plastische Veränderungen im Nervensystem des Insekts erreicht werden können.
Resumo:
Der Fokus dieser Doktorarbeit liegt auf der kontrollierten Benetzung von festen Oberflächen, die in vielen Bereichen, wie zum Beispiel in der Mikrofluidik, für Beschichtungen und in biologischen Studien von Zellen oder Bakterien, von großer Bedeutung ist.rnDer erste Teil dieser Arbeit widmet sich der Frage, wie Nanorauigkeit das Benetzungsverhalten, d.h. die Kontaktwinkel und die Pinningstärke, von hydrophoben und superhydrophoben Beschichtungen beeinflusst. Hierfür wird eine neue Methode entwickelt, um eine nanoraue Silika-Beschichtung über die Gasphase auf eine superhydrophobe Oberfläche, die aus rauen Polystyrol-Silika-Kern-Schale-Partikeln besteht, aufzubringen. Es wird gezeigt, dass die Topographie und Dichte der Nanorauigkeiten bestimmt, ob sich die Superhydrophobizität verringert oder erhöht, d.h. ob sich ein Flüssigkeitstropfen im Nano-Wenzel- oder Nano-Cassie-Zustand befindet. Das verstärkte Pinning im Nano-Wenzel-Zustand beruht auf dem Eindringen von Flüssigkeitsmolekülen in die Nanoporen der Beschichtung. Im Nano-Cassie-Zustand dagegen sitzt der Tropfen auf den Nanorauigkeiten, was das Pinning vermindert. Die experimentellen Ergebnisse werden mit molekulardynamischen Simulationen in Bezug gesetzt, die den Einfluss der Oberflächenbeschichtungsdichte und der Länge von fluorinierten Silanen auf die Hydrophobizität einer Oberfläche untersuchen. rnEs wurden bereits verschiedenste Techniken zur Herstellung von transparenten superhydrophoben, d.h. extrem flüssigkeitsabweisenden, Oberflächen entwickelt. Eine aktuelle Herausforderung liegt darin, Funktionalitäten einzuführen, ohne die superhydrophoben Eigenschaften einer Oberfläche zu verändern. Dies ist extrem anspruchsvoll, da funktionelle Gruppen in der Regel hydrophil sind. In dieser Arbeit wird eine innovative Methode zur Herstellung von transparenten superhydrophoben Oberflächen aus Janus-Mikrosäulen mit variierenden Dimensionen und Topographien entwickelt. Die Janus-Säulen haben hydrophobe Seitenwände und hydrophile Silika-Oberseiten, die anschließend selektiv und ohne Verlust der superhydrophoben Eigenschaften der Oberfläche funktionalisiert werden können. Diese selektive Oberflächenfunktionalisierung wird mittels konfokaler Mikroskopie und durch das chemische Anbinden von fluoreszenten Molekülen an die Säulenoberseiten sichtbar gemacht. Außerdem wird gezeigt, dass das Benetzungsverhalten durch Wechselwirkungen zwischen Flüssigkeit und Festkörper in der Nähe der Benetzungslinie bestimmt wird. Diese Beobachtung widerlegt das allgemein akzeptierte Modell von Cassie und Baxter und beinhaltet, dass hydrophile Flächen, die durch mechanischen Abrieb freigelegt werden, nicht zu einem Verlust der Superhydrophobizität führen müssen, wie allgemein angenommen.rnBenetzung kann auch durch eine räumliche Beschränkung von Flüssigkeiten kontrolliert werden, z.B. in mikrofluidischen Systemen. Hier wird eine modifizierte Stöber-Synthese verwendet, um künstliche und natürliche Faser-Template mit einer Silika-Schicht zu ummanteln. Nach der thermischen Zersetzung des organischen Templat-Materials entstehen wohldefinierte Silika-Kanäle und Kanalkreuzungen mit gleichmäßigen Durchmessern im Nano- und Mikrometerbereich. Auf Grund ihrer Transparenz, mechanischen Stabilität und des großen Länge-zu-Durchmesser-Verhältnisses sind die Kanäle sehr gut geeignet, um die Füllgeschwindigkeiten von Flüssigkeiten mit variierenden Oberflächenspannungen und Viskositäten zu untersuchen. Konfokale Mikroskopie ermöglicht es hierbei, die Füllgeschwindigkeiten über eine Länge von mehreren Millimetern, sowie direkt am Kanaleingang zu messen. Das späte Füllstadium kann sehr gut mit der Lucas-Washburn-Gleichung beschrieben werden. Die anfänglichen Füllgeschwindigkeiten sind jedoch niedriger als theoretisch vorhergesagt. Wohingegen die vorhergehenden Abschnitte dieser Arbeit sich mit der quasistatischen Benetzung beschäftigen, spielt hier die Dynamik der Benetzung eine wichtige Rolle. Tatsächlich lassen sich die beobachteten Abweichungen durch einen geschwindigkeitsabhängigen Fortschreitkontaktwinkel erklären und durch dynamische Benetzungstheorien modellieren. Somit löst diese Arbeit das seit langem diskutierte Problem der Abweichungen von der Lucas-Washburn-Gleichung bei kleinen Füllgeschwindigkeiten.
Resumo:
Umschlagleistung, Stellplatzzahl und Stellplatzkosten sind häufig für Lagersysteme die bedeutendsten Kenngrößen. Die Einflussfaktoren auf die Umschlagleistung lassen sich in technische und organisatorische Größen einteilen. Während für die technischen Parameter eine Reihe von Berechnungsvorschriften existieren, werden die organisatorischen Einflussgrößen meist nur qualitativ beschrieben oder durch Simulationsmodelle in speziellen Einzelfällen untersucht. Es soll hier eine Methode vorgestellt werden, die es ermöglicht die Umschlagleistung unter Berücksichtigung ausgewählter organisatorischer Einflussgrößen durch Nutzung von Simulationsdatenbanken zu berechnen. Die allgemeingültigen Simulationsergebnisse können mittels eines Berechnungsprogramms auf jedes beliebige Hochregallager übertragen werden. Dafür sind neben MS Excel keine weiteren Softwareprodukte erforderlich. 1. Einleitung Die produktionswirtschaftlichen Anforderungen an die Unternehmen sind zunehmend geprägt durch Globalisierung und damit durch eine zunehmende Komplexität sowie vertiefte Arbeitsteiligkeit. Es entsteht eine zunehmend breitere Streuung der Fertigungsstandorte und Kooperationsbeziehungen. Es gibt letztlich mehr Lager- und Umschlagprozesse in der Lieferkette. Andererseits bringt der erhöhte Qualitäts- und Kostendruck steigende Fixkosten mit sich, er zwingt zur ständigen Rationalisierung der Materialwirtschaft. Es besteht der Zwang zum Einsatz neuer technisch-elektronischer Mittel zur Kontrolle und Steuerung der logistischen Ketten. Im Lager bedeutet das eine zunehmende Nutzung der Informations- und Kommunikationstechnik zur Lager- und Fertigungssteuerung, auch in Verbindung mit Forderungen der Rückverfolgbarkeit der Produkte. An die Logistikleistungen werden damit Anforderungen wie Schnelligkeit, Qualität und Kostenminimierung gestellt. Letztlich bestehen die Warenbereitstellungs- und Verteilsysteme aus der technischen Grundstruktur, dem Lagertyp und dessen Geometrie sowie der dabei einsetzbaren Bedientechnik und deren kinematischen Daten. Der organisatorische Rahmen dieser Systeme ist gekennzeichnet durch die Nutzung diverser Ein- und Auslagerstrategien, die auch wesentlich Kosten und Leistungen (Umschlagleistung) des zu betrachtenden Lagersystems bestimmen. Aufgrund der genannten Forderungen muss es gelingen, aus dem eingesetzten technischen System durch organisatorisch effizienten Betrieb maximale Leistung bei gleichzeitig minimal eingesetzten Kosten zu erzielen. Neben den Investitionskosten sind bei der Planung von automatischen Lagersystemen die erreichbaren mittleren Spielzeiten der Bedientechnik von entscheidender Bedeutung, um die erforderliche Umschlagleistung des Lagers zu gewährleisten. Hierzu existieren eine Reihe von Berechnungsvorschriften und –normen. Diese Berechnungen berücksichtigen jedoch nicht die Auswirkungen der Lagerorganisation, wie beispielsweise fahrzeitminimale Kombinationen von Ein- und Auslageraufträgen bei Doppelspielen, Zonierungsmaßnahmen, die Auswirkungen von verschiedenen Füllgraden des Lagers oder Lagerplatzstrategien. 2. Stand der Technik 2.1. Lagertypen Abbildung 1: Systematische Einteilung der Lagertypen In Abbildung 1 sind verschiedene Lagertypen dargestellt und nach Kriterien eingeteilt. Soll eine Einschränkung hinsichtlich am Markt häufig vorkommender automatischer Palettenlager getroffen werden, so sind besonders die in der Abbildung hervorgehobenen Typen zu nennen. Eine Auswahl der einzelnen Lagertypen erfolgt dann anhand von Kosten, Umschlagleistung und bei Kompaktlagern vorrangig anhand von Flächen- und Raumnutzungsgrad. Werden die Kostenunterschiede bei Personal, Rechentechnik und Steuerungssoftware in den verschiedenen Lagertypen und -ausführungen der jeweiligen Typen vernachlässigt, unterscheiden sich die Gesamtkosten der Lager lediglich in der Bedientechnik sowie in den statisch bedingten Kosten der Regalkonstruktion. Die wichtigsten Kosteneinflüsse auf die Regale sind wiederum Bauhöhe und Bauart (Regalkonstruktion oder selbsttragendes Bauwerk). Abbildung 2 zeigt die zu erwartenden Umschlagleistungen1) der verschiedenen Lagertypen in Abhängigkeit der benötigten Stellplatzanzahl. Die darauf folgende Abbildung 3 zeigt die zu erwartenden Investitionskosten1) je Stellplatz. Die berücksichtigten Kenngrößen sind nachstehend dargestellt. Die abgebildeten Kurven machen deutlich, dass insbesondere Umschlagleistung der Lager und deren Flächen- bzw. Raumnutzungsgrad gegensätzlich verlaufen. Somit sind auch die Einsatzgebiete der Lagertypen voneinander abgrenzbar. Während Hochregallager für Anwendungsfälle mit hohem Gutumschlag in Frage kommen, werden die Kompaktlager eher in Objekten mit begrenztem Platz oder hohen Raumkosten (bspw. Kühllager) eingesetzt. Somit sind Kompaktlager auch häufig für die Umplanung bzw. der notwendigen Vergrößerung der Lagerkapazität innerhalb einer bestehenden baulichen Hülle interessant. Abbildung 2: Umschlagleistungen der verschiedenen Lagertypen Abbildung 3: Investitionskosten der einzelnen Lagertypen 2.2. Einzel-/ Doppelspiele Um anhand der Technik und der geometrischen Verhältnisse im Lager die höchstmögliche Umschlagleistung zu erzielen, ist es sinnvoll, Doppelspiele (DS) zu generieren. Somit ist nicht wie bei Einzelspielen (ES) je umgeschlagene Ladeeinheit eine Leerfahrt erforderlich, sondern nur je zweiter Ladeeinheit. Das Bediengerät fährt also vom Einlagerpunkt direkt zum Auslagerpunkt, ohne zum Übergabepunkt zurückkehren zu müssen. Diese Vorgehensweise setzt die Kenntnis der nächsten Fahraufträge und gegebenenfalls die Möglichkeit der Veränderung derer Reihenfolge voraus. Für eine Optimierung der Umschlagleistung ist die bei DS entstehende Leerfahrt (Zwischenfahrstrecke) und damit die Zwischenfahrzeit zu minimieren (vgl. 3.5). Nachfolgend beschriebene Untersuchungen beziehen sich jeweils auf Doppelspiele. Abbildung 4: Darstellung der anzufahrenden Lagerplätze in der Regalwand,links: Einzelspiel, rechts: Doppelspiel 2.3. Berechnungsvorschriften für Umschlagleistungen von Lagern Es existieren eine Reihe von Vorschriften zur Berechnung der Umschlagleistung von Lagern, exemplarisch sind drei Berechnungsvorschriften dargestellt. Die Richtlinie VDI 3561 [VDI3561] ermöglicht die Berechnung der Spielzeit auch für Doppelspiele. Dazu werden zwei Referenzpunkte festgelegt, die den Aus- bzw. Einlagerpunkt darstellen. Ein Doppelspiel besteht dann aus der Summe folgender Einzelzeiten: • der Hinfahrt vom Übergabepunkt zum Einlagerpunkt (P1), • der Leerfahrt vom Ein- zum Auslagerpunkt (P2) und der • Rückfahrt vom Auslagerpunkt zum Übergabepunkt (vgl. Abb.4 rechts). Die Summe dieser Einzelzeiten wird danach mit der Summe der Übergabezeiten addiert. Der Unterschied der Richtlinie und der Berechnungsvorschrift nach [Gud00] bestehen im wesentlichen aus der Lage der Ein- und Auslagerpunkte. Fahrzeitberechnung nach VDI 3561 P1 ; P2 Fahrzeitberechnung nach Gudehus 1) P1 ; P2 1)Annahme: Vernachlässigung von Totzeiten, Lastaufnahmefaktor = 1 Wird davon ausgegangen, dass in Abhängigkeit der Gassengeometrie immer nur eine der beiden Fahrzeitanteile (vertikal bzw. horizontal) spielzeitbestimmend ist, so ergeben sich beide Fahrstrecken zu 4/3 der jeweiligen Gesamtabmessung. Der Unterschied der beiden Berechnungsvorschriften liegt lediglich in der Aufteilung der Gesamtfahrstrecke auf die Teilfahrstrecken Hin-, Rück- bzw. Zwischenfahrt. Da jedoch die Fahrzeit zu den Anfahrpunkten in der Regel nicht von der gleichen Fahrzeitkomponente bestimmt wird, kommt es in der Praxis zu Unterschieden im Berechnungsergebnis. Die unter dem Titel „Leistungsnachweis für Regalbediengeräte, Spielzeiten“ stehende Norm FEM 9.851 [FEM9.851] beschäftigt sich ebenfalls mit der Berechnung von Spielzeiten von Regalbediengeräten (RBG). Dabei werden sechs verschiedene Anwendungsfälle generiert, die am häufigsten in der Praxis vorkommen. Diese unterscheiden sich insbesondere in der Lage der Übergabepunkte für die Ein- und Auslagerung. Dabei werden die Punkte sowohl horizontal als auch vertikal verschoben. Es werden hierbei auch Fälle betrachtet, in denen der Auslagerpunkt nicht mit dem Einlagerpunkt übereinstimmt, sich beispielsweise auch an dem gegenüberliegenden Gassenende befinden kann. Wird der einfachste Fall betrachtet, dass sich der Übergabepunkt für die Ein- und Auslagerung übereinstimmend an einer unteren Ecke der Gasse befindet, stimmen die Berechnungsformeln mit [Gud00] weitgehend überein. 2.4. Kritik und Untersuchungsansatz Die Berechnung der mittleren Spielzeit der einzelnen Lagergassen durch die beschriebenen Normen erfolgt in der Regel ohne die Berücksichtigung der Geschwindigkeitsdiagonalen, deren Steigung c durch nachstehendes Verhältnis gegeben ist. Eine genaue Betrachtung der verschiedenen Gassengeometrien im Verhältnis zu den Geschwindigkeiten der Bediengeräte zeigt, dass es bei ungünstiger Lage der Geschwindigkeitsdiagonalen in der Regalwand zu Abweichungen der Berechnungsnormen von der tatsächlich zu erwartenden mittleren Spielzeit kommt. Im praktischen Lagerbetrieb wird mit verschiedenen Maßnahmen der Lagerorganisation versucht, die Umschlagleistung zu erhöhen. Diese Maßnahmen können jedoch mit den hier beschriebenen Normen und Berechnungsmethoden nicht berücksichtigt werden. Da Zonierungen, Lagerplatzstrategien oder Reihenfolgeoptimierungen der Ein- und Auslageraufträge (Zuordnungsproblem) Einfluss auf die Umschlagleistung des Lagers haben, sollten sie auch bei der Berechnung berücksichtigt werden. In den zahlreichen Veröffentlichungen mit dem Ziel der Erhöhung der Umschlagleistung eines Lagerbereiches finden sich häufig Darstellungen, die einzelne Auswirkungen der Lagerorganisation untersuchen. Dabei bleiben aber die gegenseitigen Beeinflussungen und Wechselwirkungen meist unberücksichtigt. Um dennoch solche Einflussgrößen realitätsnah berücksichtigen zu können, werden üblicherweise Simulationsmodelle erstellt, die den jeweiligen Anwendungsfall nachbilden. Die Erstellung solcher Modelle benötigt jedoch neben der entsprechenden Software Zeit und verursacht damit weitere Kosten. Aus diesem Grund ist ein solches Vorgehen erst bei einem bestimmten Grad an Komplexität der Anlage sinnvoll. Damit ist die Übertragbarkeit solcher Modelle auf verschiedene Anwendungsfälle nicht immer gegeben. 3. Dynamische Spielzeitberechnung 3.1. Vorgehen und Abgrenzung zum Forschungsstand Um die Auswirkungen der Lagerorganisation auf die Umschlagleistung sinnvoll abschätzen zu können, wurde ein allgemeingültiges Simulationsmodell erstellt. Dieses Modell startet sich nach vorgeschriebener Simulationszeit selbstständig neu mit vordefinierten Änderungen der Eingangsgrößen wie z. B.. Geschwindigkeiten und Beschleunigungen der Bedientechnik in Abhängigkeit der Gassengeometrie. Nacheinander konnten somit ausgewählte, in das Modell implementierte Lagerorganisationsformen untersucht werden. Der Unterschied zu bisherigen in der Literatur dokumentierter Untersuchungen besteht in der Berücksichtigung gegenseitiger Wechselwirkungen der Lagerorganisation. Bisher wurden dagegen die verschiedenen Strategien und Regeln im Lagerbetrieb meist nur losgelöst voneinander unter einem speziellen abgegrenzten Blickwinkel betrachtet. Um die Menge an Simulationsergebnissen für einen praktischen Einsatz zur Verfügung zu stellen, wurde ein Programm auf Basis von MS Excel erstellt, das die relevanten Simulationsdaten aufarbeitet und dem Anwender einfach und übersichtlich zur Verfügung stellt. Es ist somit möglich, die gefundenen Simulationsergebnisse auf verschiedenste Hochregal-Lagersysteme zu übertragen. Das Berechnungsmodell wurde an einem existierenden Hochregallager getestet. Es können Aussagen hinsichtlich der optimalen, d. h. spielzeit- und kostenminimalen Lagergeometrie unter Berücksichtigung gegebener Randbedingungen getroffen werden. 3.2. Übergabepunkte Neben den verschiedenen untersuchten Lagerstrategien wurde zunächst nach Möglichkeiten gesucht, die Umschlagleistungen des Typs der herkömmlichen Hochregallager unter technischen Gesichtspunkten zu verbessern. Dabei wurde v. a. die Verlegung des Übergabepunktes in die Mitte der Gassenwand untersucht. Dies hat das Ziel, die mittleren Verfahrwege der Bedientechnik im Lager zu halbieren. Abbildung 5: Maximale Verfahrwege der Bedientechnik in der Regalgasse Die Ver- und Entsorgung des Materials an den Übergabeplätzen mit Lagergut kann hierbei durch zwei verschiedene Möglichkeiten gelöst werden: • Zuführung in x- oder y-Richtung, • Zuführung in z-Richtung. Ersteres Vorgehen führt in Abhängigkeit der Anzahl der Zu- und Abführkanäle zu einem großen Verlust an Lagerplätzen. Bei letzterem Vorgehen liegen die Versorgungskanäle senkrecht zu den Verfahrwegen der Bedientechnik. Das hat den Vorteil, dass die Versorgung der Übergabeplätze über die gleichen Ver- und Entsorgungskanäle erfolgt und somit erheblich weniger Lagerplatz benötigt wird. Dieses Vorgehen benötigt jedoch neben erhöhtem Steuerungsaufwand eine veränderte konstruktive Gestaltung der Gassenübergänge z. B. durch klappbare Brücken oder ein entsprechendes aus- und einfahrbares Gabelsystem. Da sich hierbei die RBG und das Lagergut behindern können, wurden Simulationsuntersuchungen zur Minimierung der Wartezeiten der RBG durchgeführt. Je mehr Kanäle für die Ein- und Auslagerung zur Verfügung stehen, umso kürzer sind die Wartezeiten der Bediengeräte. Dabei bieten sich insbesondere zwei Optimierungsstrategien an, die diese Wartezeiten minimieren können. Einerseits verursachen gassenreine Kanäle keine zusätzlichen Wartezeiten der RBG, da die benötigte Palette im jeweiligen Einlagerungskanal zur Verfügung steht. Zudem reduzieren sich die Einlagerungskanäle, je weiter die Mitte des Lagerblocks erreicht wird. Andererseits steigen die Wartezeiten der RBG schnell an, je ungünstiger das Verhältnis von Gassenanzahl zu Einlagerungskanälen wird. Dies gilt auch bei sinnvoller Begrenzung der Gassenanzahl pro Einlagerungskanal. Abbildung 6: Reihenfolgeoptimale Einschleusung der Einlagerpaletten, keine Beschränkung der Gassen pro Kanal Ist die Zahl der Gassen des Lagerblockes größer als die Zahl der Einschleuskanäle, so ist eine optimale Reihenfolge der Paletten umzusetzen, bei der die Paletten gleichmäßig auf alle Kanäle verteilt werden. Abbildung 6 zeigt die so erreichten mittleren Wartezeiten der RBG. Hier ist der Abstand zwischen zwei Paletten, die in den gleichen Gang eingelagert werden müssen, am größten. Dies führt zu minimalen Stillstandszeiten der RBG. Für die Ausschleusung der Paletten aus dem Lagerblock ist jedoch ein Kanal ausreichend. Eine technische Realisierbarkeit (auch hinsichtlich der Funktionssicherheit der Gassenbrücken) ist zu prüfen. Eine wirtschaftliche Umsetzung einer solchen Beschickung der RBG, so hat der Versuch gezeigt, macht Sinn. Es kann hierbei bei günstiger Lage der Übergabepunkte in der Regalwand nahezu 50 % der Fahrzeit eingespart werden. Bei vergleichsweise langen und hohen Gassen kann damit die mittlere Spielzeit teilweise um über 25 % gesenkt werden. 3.3. Lagerplatzstrategien Es wurden insbesondere zwei verschiedene Strategien untersucht. Einerseits wurde zur besseren Vergleichbarkeit die chaotische Lagerplatzauswahl (nachfolgend: Strategie „Chaotisch“) sowie die in der Literatur auch als „Kürzeste Fahrzeitregel (KFZ)“ bezeichnete Strategie [Gla05]. Letztere soll nachfolgend aufgrund der Auswahl des jeweils vordersten Lagerplatzes als Strategie „KFZ“ bezeichnet werden. In Abbildung 7 sind die bei zunehmender Gassengeometrie sich in Abhängigkeit der Strategien vergrößernden Fahrzeitunterschiede dargestellt. Damit ist bei höheren bzw. längeren Gassen die Strategie „KFZ�� empfehlenswert. Abbildung 7: Vergleich der Strategien „Chaotisch“ und „KFZ“ bei unzonierter Lagergasse In ist weiterhin zu erkennen, dass der Einfluss der Beschleunigung bei längeren Fahrstrecken abnimmt. Insbesondere bei kleinen Gassenabmessungen kann der Beschleunigungseinfluss nicht vernachlässigt werden. So sind in Abbildung 8 Gassenabmessungen angegeben, von wo ab die Beschleunigung der Bedientechnik der jeweiligen Richtungskomponente vernachlässigbar ist. Die Grenze des Beschleunigungseinflusses wurde mit 5 % der Gesamtfahrzeit willkürlich festgelegt. Es ist zu erkennen, dass der Beschleunigungseinfluss mit höherer Geschwindigkeit zunimmt, da das RBG eine längere Zeit und damit auch eine längere Fahrstrecke benötigt, um die Maximalgeschwindigkeit zu erreichen. Abbildung 8:Vernachlässigungsgrenzen der Beschleunigung Anhand des Diagramms ist weiterhin zu erkennen, dass die Beschleunigungen bei in der Praxis geläufigen Gassenlängen nicht zu vernachlässigen sind. Ein zur Validierung der Simulation genutztes Lager (ca. 80 x 40m, vx ≈ 1,8 m/s, vy ≈ 0,8 m/s) liegt hinsichtlich der Gassenlänge über der festgelegten Grenze, hinsichtlich seiner Höhe jedoch darunter. Somit sind auch hier die Beschleunigungen nicht zu vernachlässigen. 3.4. Zonierung Die häufigste und bekannteste Form der Zonierung in der Lagergasse ist die ABC-Zonierung. Diese geht davon aus, dass durch eine Platzierung der umsatzstarken Paletten (Schnelldreher) in der Nähe des Übergabeplatzes die mittleren Fahrstrecken der Bedientechnik vermindert werden. Abbildung 9 zeigt das Verhältnis der mittleren Anfahrpunkte in Abhängigkeit der Zonierungsart. Die Zahlenkombination (80/20) kennzeichnet bspw. 80 % des Gesamtumsatzes zu dem ihn verursachenden 20 % Mengenanteil der gesamten eingelagerten Palettenzahl [Pfo96]. Abbildung 9: Mittlere Anfahrpunkte relativ zu den Gesamtabmessungen, chaotische Lagerplatzvergabe Abbildung 10 stellt den Einfluss des Zusammenwirkens von Lagerplatzstrategien und der Zonierung dar. Dabei ist zu erkennen, dass sich bei ungünstiger Sortenverteilung von 80/80 (Umsatz-/ Mengenanteil) das Verhältnis der mittleren Fahrzeit gegenüber der unzonierten Gasse bei größeren Abmessungen erhöht. Bei günstigem Zonierungsfall (80/20) ist dieser Zusammenhang nicht zu beobachten. Hier bringt eine Zonierung Vorteile. Weiterhin ist zu erkennen, dass die Vorteile einer Zonierung bei gleichzeitig verbesserter Lagerplatzstrategie geringer sind. Abbildung 10: Zonierungsabhängige Auswirkungen der Lagerplatzstrategien auf die Fahrzeiten 3.5. Optimierung der Auftragsreihenfolge Die beschriebenen Lagerplatzvergabestrategien und Zonierungen haben das Ziel, durch Verminderung der Anfahr- und Rückwege der Bedientechnik die Fahrstrecken und damit die Fahr- und Spielzeiten zu verringern. Eine Optimierung der Reihenfolge bzw. der Zuordnung der Ein- und Auslageraufträge bei der Bildung von Doppelspielen soll dagegen die Strecken der Leerfahrten zwischen den kombinierten Lagerplätzen verringern. Auch hier konnten Auswirkungen bspw. der Zonierung nachgewiesen werden. Abbildung 11: Optimierung der Zwischenfahrzeit, Fahrzeit im Vergleich zu unoptimierter Fahrzeit Abbildung 11 zeigt die optimierten Zwischenfahrzeiten im Vergleich zu unoptimierten Zwischenfahrzeiten. Da eine Testung aller Möglichkeiten (Permutation) zu unzumutbarem Rechenaufwand führt, konnten hier nur Kombinationen von maximal 8 x 8 Aufträgen durchgeführt werden. Um dennoch auch größere Auftragspools berechnen zu können, wurde auf das Vogelsche Approximationsverfahren zurückgegriffen. Die dargestellten Kurvenverläufe stellen eine idealisierte Kennlinie der gefundenen Ergebnisse dar. Um in der Praxis eine solche Optimierung durchführen zu können, müssen die jeweils folgenden Aufträge bekannt sein. 3.6. Füllgrad Abbildung 12 zeigt Untersuchungen zum Füllgrad des Lagers. Minderungen der Umschlagleistungen waren ab einem Füllgrad von ca. 80% zu erkennen. Es konnten zwei Knickpunkte der Kurve der Umschlagleistung beobachtet werden. Der Punkt P1 stellt die Länge dar, unter der eine Verringerung der Leistung des Lagers eintritt. Der Punkt P2 beschreibt die Länge, unter der das Absinken der Umschlagleistung des Lagers verstärkt wird. Abbildung 12: Auswirkungen des Füllgrades des Lagers auf die Umschlagleistung 3.7. Berechnungsprogramm Um die Simulationsergebnisse auf beliebige Anwendungsfälle übertragen zu können, wurde ein Berechnungsprogramm erstellt. Durch Berechnung der wirksamen Gassenlänge werden die simulierten Fahrzeiten durch Interpolation auf die Daten des Anwendungsfalls übertragen. Es fließen insbesondere auch die untersuchten Auswirkungen der Lagerorganisation in die Berechnungen ein. Zur besseren Vergleichbarkeit der Berechnungsergebnisse sowie zur Definition der durch die Lagerorganisation erreichten Leistungserhöhung, wurden die Ergebnisse den Berechnungsnormen gegenübergestellt. Als weiteres Ergebnis des Programms können die Kosten des Lagers abgeschätzt werden. Dabei werden die Kosten für das Lager insgesamt, als auch die je Lagerplatz berechnet. Zunächst müssen bei zu projektierenden Lagern die Abmessungen, die Anzahl der Lagergassen und die technischen Daten der Bedientechnik festgelegt werden. Die Geometrie der Lagergasse bestimmt sich in diesem Stadium durch die Anzahl der benötigten Stellplätze und der räumlichen Restriktionen. Dabei werden unter Berücksichtigung der eingegebenen Grenzabmessungen für Breite, Tiefe und Höhe die Anzahl der Regalgassen berechnet. Hierzu werden durch den Einsatz von teuren RBG lange und hohe Gassen bevorzugt. Die Gassen werden so gestaltet, dass sowohl die Gassengeometrie optimal ist, als auch die maximale Bedienhöhe der Geräte erreicht wird. Um die geforderte Lagerplatzanzahl zu erlangen, werden Vielfache der so dimensionierten Regalgasse gebildet, bis die benötigte Stellplatzanzahl erstmals überschritten ist. Grenzen der Abmessungen können bspw. durch die einzusetzende Bedientechnik oder bereits bestehende Lagerhülle gegeben sein. 4. Zusammenfassung und Ausblick Anhand der Untersuchungen wurde eine Möglichkeit aufgezeigt, die es dem Anwender ermöglicht, ohne zusätzliche Hilfsmittel und spezielle Kenntnis von Simulationsprogrammen die Umschlagleistung eines Lagers zu berechnen. Er greift durch die Nutzung eines Berechnungsprogramms, das in MS Excel- VBA (Visual Basic for Applications) erstellt wurde auf eine Simulationsdatenbank zu. Diese Simulationsdatenbank berücksichtigt wesentliche organisatorische und technische Daten eines Lagersystems. Der Bediener kann somit die Umschlagleistung für seinen Planungsfall unter Berücksichtigung der Lagerorganisation sowie deren Wechselwirkungen berechnen. Um das Einsatzgebiet der Methode zu erweitern und allgemeiner zu gestalten sind weitere Vervollständigungen der Maßnahmenbibliothek sinnvoll. Zum Anderen ist es möglich, die Simulationsdatenbank um andere Lagertypen sowie mehrfachtiefe Einlagerungen zu erweitern.
Resumo:
Sumatra ist die Heimat vielfältiger indigener Bautraditionen, deren Überleben wegen der schnellen Modernisierung des Landes gefährdet ist. Dem Verlust lebendiger Bautraditionen folgt ein Verlust von Vielfalt und kultureller Identität. Der Beitrag widmet sich zunächst der indigenen Baukultur der Karo- und Toba-Batak, zweier Ethnien im Norden Sumatras. Ein zweiter Abschnitt stellt ausgehend von den traditionellen Haustypen die Anpassungsstrategien –chancen dar, die sich aus den westlichen Einflüssen und den daraus resultierenden veränderten Familiengrößen ergeben. Die Anpassungsstrategien der Karo- und Toba-Batak illustrieren ein verzweifeltes Streben nach regionaler Zugehörigkeit und nach kultureller Identität im Zeitalter eines global-uniformen Architekturschaffens.
Resumo:
Aktualität und Zeitgenössischkeit sind Glaubenssätze der Architektur der Moderne. Viele historische Architekturen werden den Anforderungen nach Ressourceneffizienz und Nachhaltigkeit jedoch besser gerecht als die Schöpfungen einer globalisierten Architekturmoderne. Ohnehin ist die Geschichte der Architektur eine lange Geschichte des Kopierens bewährter Vorbilder –eine Geschichte der "Raubkopie". Diese "longue durée" vollzieht sich auf verschiedenen Ebenen und lebt in regionalen wie in handwerklichen Traditionen fort. Im Vergleich zu diesen Überlieferungen ist der spektakuläre Einzelentwurf als Inbegriff moderner Architekturproduktion eine vergleichsweise junge Erscheinung.
Resumo:
Das medienvermittelte Bild von Architektur ist fast ausschließlich ein Bild von Neubauten und technischen Innovationen. Das Zustandekommen dieses Bildes ist eng mit Suggestion und Selbstverständnis einer architektonischen Moderne verbunden, die zu Beginn des 20. Jahrhunderts Traditionsbruch zum Programm erhob, Anlehnung an Methoden der Serienproduktion suchte und schließlich in den 60er und 70er Jahren Architekturproduktion zu einem System sorgenfreien Konsums und unablässiger Innovationen stilisierte. Diese Wunschvorstellung stößt nicht allein angesichts begrenzter Ressourcen an ihre Grenzen. Auch das Ausmaß an psychisch verkraftbarer Umweltveränderung unterliegt einer seelischen Ökonomie. Die menschliche Psyche benötigt Vertrautes als Orientierungsrahmen. Dieser Rahmen ist aber nicht allein auf eigene Erfahrungen bezogen. Auch medienvermittelte Bilder prägen Vorstellungen und Referenzräume. Architektur ist mehr als ein funktionales, konstruktives oder ökonomisch produziertes System – Architektur ist ein Zeichen. Auch die Architektur der Moderne ist längst zu einem Zeichensystem geworden, das in das kulturelle Gedächtnis der Gegenwart eingegangen ist und als Referenzrahmen fortwirkt, wenn heute über Erhalt oder Abriss von Bauten der Nachkriegszeit diskutiert wird.
Resumo:
Das Lamento über eine Krise der Demokratie ist so alt wie diese selber. In der politischen und wissenschaftlichen Debatte gehört der Untergang der westlichen Demokratie zu den Standardthemen. Politikverdrossenheit, abnehmendes Vertrauen, der Rückgang der Partizipation oder der zunehmende Ruf nach Alternativen zur klassischen Repräsentativdemokratie werden als Krisenzeichen gedeutet. Auf der anderen Seite werden Demokratisierungsentwicklungen im arabischen Raum oder Proteste und Demonstrationen für mehr sachunmittelbarere Beteiligung als Indizien für eine Renaissance der Demokratie betrachtet. Im nachfolgenden Beitrag wird in einem ersten Teil der Frage nachgegangen, ob sich eine Krise empirisch nachweisen lässt und ob es tatsächlich Anzeichen für einen Rückgang an Demokratiequalität gibt. Konkret wird mit Hilfe des Demokratiebarometers, eines neuen Instrumentes zur Messung der Qualität etablierter Demokratien, die Entwicklung der Demokratiequalität ausgewählter Staaten zwischen 1990 und 2007 beleuchtet. Es wird dabei deutlich, dass von einer generellen Krise nicht die Rede sein kann. Freilich ermöglicht das Demokratiebarometer auch eine feinere Analyse und ein differenzierteres Urteil. Es zeigen sich einzelne Teilbereiche, in denen in den letzten rund 20 Jahren ein Verlust an Qualität zu verzeichnen ist. Auffällig ist dabei insbesondere der Rückgang der Qualität der Partizipation. In einem zweiten Teil des Beitrags werden diese Entwicklung beschrieben und mögliche Heilmittel gegen die schwindende demokratische Beteiligung diskutiert. Der Ausbau an Opportunitäten für direktdemokratischere Beteiligung, mehr Parteienwettbewerb oder die Einführung einer Wahlpflicht zeigen im Quer‐ und Längsschnittvergleich jedoch ambivalente Wirkungen.
Resumo:
Die Autonomie von Personen ist nach weit verbreiteter Auffassung ein zentraler Wert, den es zu befördern und zu erreichen, zu bewahren und zu respektieren gilt. Personen scheinen ein Recht auf Autonomie gegenüber der Einmischung anderer zu besitzen und streben Autonomie selbst als persönliches Ideal an. Umgekehrt scheint es ein beklagenswerter Verlust, wenn es ihnen an Autonomie fehlt, und dieser Mangel deutet häufig auf Unterdrückung, Entmündigung oder psychische Krankheit hin. Doch was genau macht Personen autonom und inwiefern ist Autonomie so wertvoll? Liegt es an einer bestimmten Konstellation von Einstellungen und deren Bezug zueinander, wie internalistische Ansätze behaupten? Sind es bestimmte soziale Umstände und Beziehungen, die Personen externalistischen Ansätzen zufolge als autonom charakterisieren lassen? Oder lassen sich weitere Merkmale nennen? Kurz: Gelten Personen dadurch als autonom, weil sie sich zu sich selbst in einer bestimmten Weise verhalten, oder werden sie durch ihre Lebensumstände autonom? Ausgehend von Harry G. Frankfurts klassischem Modell hierarchischer Wünsche wird in diesem Band eine repräsentative Auswahl verschiedener Konzeptionen der Autonomie vorgestellt. Sie sollen nicht nur die zeitgenössische Debatte um die Frage, was genau Personen als autonom charakterisiert, abbilden. Sie stellen darüber hinaus die wesentliche Grundlage für unser Verständnis von Autonomie in angewandten Kontexten dar, wie etwa in der angewandten Ethik oder in der politischen Philosophie und der Rechtsphilosophie.
Resumo:
Viele Menschen erleben das mittlere Alter als eine spannende, teils auch bedrängende Übergangszeit. Die Erfahrung des langsamen körperlichen Alterns, der Verlust von jugendlicher Schönheit und körperlicher Kraft zeigen an, dass die eigene Lebenszeit nicht unbegrenzt ist. Damit rückt die Frage ins Zentrum, wie die verbleibende Zeit am besten zu nutzen ist. Neuorientierungen in Partnerschaft und Beruf können die Folge sein. Die individuellen Werte können sich deutlich verschieben. Im Gegensatz zur Jugend und dem höheren Alter hat das mittlere Alter bisher in der Öffentlichkeit weniger Beachtung gefunden. Als erste umfassende Ausstellung zur Thematik bietet die Ausstellung «Halbzeit» eine vertiefte Auseinandersetzung mit der Phase des Übergangs von der Jugend zum Alter. Sie vereinigt künstlerische Positionen, Interviews mit Menschen im mittleren Alter und zahlreiche Sachexponate zu einem interaktiven Erlebnis- und Erfahrungsraum.
Resumo:
Während die Verwitwungsforschung negative körperliche, psychische und soziale Folgen auf Individualebene vielseitig aufzuzeigen vermochte, wurde kaum untersucht, inwiefern diese individuellen Auswirkungen einer Verwitwung im Alter von Kohortenzugehörigkeit und historischem Kontext mitdeterminiert sind. Vor dem Hintergrund, dass sich sowohl Geschlechtsrollenverständnis, Familienstrukturen, aber auch das Gesundheits- und Sozialsystem in unserem Lande stark verändert haben, ist davon auszugehen, dass Verwitwete unterschiedlicher Kohorten sich hinsichtlich Ressourcen und Belastungen unterscheiden. Der vorliegende Beitrag untersucht mit Hilfe von Daten des IP13 des Nationalen Forschungsschwerpunkts LIVES (‚Democratisation of old Age’), inwiefern die subjektiv empfundenen psychophysischen, sozialen und finanziellen Folgen der Verwitwung zwischen zwei Kohorten variieren. Dazu werden Daten zweier Kohorten von verwitweten Personen aus den Kantonen Genf und Wallis im Alter von 65 Jahren und älter verglichen. Die eine Befragung fand 1979 statt (455 Verwitwete), die andere 2011 (298 Verwitwete). Die Ergebnisse zeigen, dass sich in den berichteten Schwierigkeiten nach einer Verwitwung eine Verbesserung der ökonomischen und sozialen Situation in der Schweiz in den vergangenen dreissig Jahren widerspiegelt, insbesondere für Frauen. Im Gegensatz dazu zeigen sich bei den psychischen Auswirkungen keine bedeutenden periodenspezifischen Veränderungen. Es spricht somit vieles dafür, dass der Verlust des Partners/der Partnerin psychisch auch bei günstigen sozialen Rahmenbedingungen ein kritisches Lebensereignis darstellt, das nach wie vor individuell zu bewältigen ist.
Resumo:
Bd. 1 d. 6.Aufl. in Verlust; kein Digitalisat vorhanden