990 resultados para Kreuzorden mit dem Roten Sterne.
Resumo:
Les questions identitaires sont depuis des années au cœur des débats et des réflexions chez les Germano-Canadiens; les évènements du XXe siècle les ont poussés à constamment (re)définir leur identité face à la majorité (anglo-)canadienne. C’est notamment par le biais de médias ethniques qu’ils ont été en mesure de réfléchir à ces questions, sujettes aux débats les plus houleux. Le Kanada Kurier, un hebdomadaire germanophone du Canada, publié à l’échelle nationale pendant plus de cent ans, leur permettait notamment de s’exprimer sur cette question. Le mémoire s’interroge sur le discours identitaire produit par ce groupe et vise à mieux le décrire. Par une analyse de contenu des lettres de lecteurs de 1981, nous mettons en lumière les thèmes qui animent la communauté. Le corpus permet d’abord de voir la place importante qu’occupe la politique allemande, de constater la présence d’un discours identitaire duel, puisant ses références dans les contextes tant allemand que canadien, renforcé par des idéologies (politiques) communes chez certains germanophones du Canada et d’Europe. L’utilisation du concept de transnationalisme permet de soulever la question de la Heimat, sujet devenu éminemment politique après 1945, et illustre la complexité de la notion de patrie dans le cas allemand, surtout face aux revendications des « revanchistes » qui souhaitaient récupérer les territoires annexés par la Pologne et l’URSS après 1945. Au cœur de la majorité des lettres, nous apercevons le rapport complexe qu’entretiennent les Germano-Canadiens avec la Deuxième Guerre mondiale, véritable lieu de mémoire de la communauté. Finalement, le corpus montre surtout un journal dont le rôle aura été multiple et qu’on peut en définitive qualifier de journal diasporique.
Resumo:
Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.
Resumo:
Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.
Resumo:
Der Markt für öffentlichen Personennahverkehr (ÖPNV) wird liberalisiert, in die gewachsenen Monopolstrukturen werden Marktmechanismen implementiert. Ziel der neuen ordnungspolitischen Rahmenbedingungen ist die Steigerung der Effizienz des defizitären Verkehrsbereichs, der von kommunalen Verkehrsunternehmen dominiert wird. Diese erbringen als Quasi-Monopolisten traditionell die Verkehrsdurchführung, regelmäßig anfallende Defizite werden von der öffentlichen Hand ausgeglichen. Bedingt durch ihre Leistungsstrukturen sind kommunale Verkehrsunternehmen in einem Wettbewerbsmarkt kaum konkurrenzfähig. Charakteristisch für diesen Unternehmenstyp ist der hohe Grad an vertikal integrierten Wertschöpfungsstufen. Im Gegensatz zu anderen Branchen erbringen kommunale Verkehrsunternehmen die wesentlichen Teile der gesamten ÖPNV-Wertschöpfungskette innerhalb der eigenen Unternehmensgrenzen. An dem hohen vertikalen Integrationsgrad setzt die Untersuchung an. Mit dem von Williamson entwickelten Instrumentarium der Transaktionskostentheorie werden die Leistungsbereiche einer transaktionskostentheoretischen Bewertung unterzogen. Als Alternativen zum institutionellen Arrangement der vertikalen Integration – das als Hierarchie bezeichnet wird – stehen die Arrangements Kooperation und Markt zur Verfügung. Die Bewertung zeigt, welche Leistungsbereiche unter transaktionskostentheoretischen Gesichtspunkten hierarchisch institutionalisiert werden sollten und welche alternativ erbracht werden können. Aus den Ergebnissen werden Strategieempfehlungen abgeleitet, die als Arbeitshypothesen einer anschließenden empirischen Überprüfung unterzogen werden. Die befragten ÖPNV-Experten bewerten somit die Marktfähigkeit der Strategieempfehlungen. Die Untersuchungsergebnisse werden für die Erarbeitung eines alternativen Koordinierungsarrangements für kommunale Verkehrsunternehmen herangezogen. Das Modell basiert auf der Grundlage Strategischer Netzwerke. Kommunale Verkehrsunternehmen nehmen in dem Modell die Rolle des Nukleus ein, der eine Vielzahl von Netzwerkpartnern steuert und für die Erbringung der ÖPNV-Leistungen mit diesen kooperiert.
Resumo:
Von der Idee zum Mythos. Die Rezeption des Bauhaus in beiden Teilen Deutschlands in Zeiten des Neuanfangs (1945 und 1989) Das Bauhaus wird 1919 durch Zusammenlegung der Großherzoglich Sächsischen Kunstgewerbeschule und der Hochschule für Bildende Kunst von Walter Gropius gegründet. Dabei geht es in seinem programmatischen Ansatz weit über seine institutionellen Vorgänger hinaus. Das Bauhaus-Konzept zielt nicht auf die Erschaffung einer zeitgemäßen Formsprache, sondern auf die Veränderung der gesellschaftlichen Wirklichkeit mit den Mitteln der Kunst. Diese Haltung ist eine Reaktion auf die Bewusstseinskrise, die durch den Ersten Weltkrieg ausgelöst worden war: Der zunehmenden Entfremdung von Kunst und Leben soll entgegengewirkt und dabei die versprengten Einzelkünste unter dem Primat der Architektur wieder zusammengeführt werden: Weil sich dieser sozial-moralische Impetus, der gemeinhin mit dem Schlagwort ‚Bauhaus-Idee’ umschrieben wird, äußerst vielschichtig darstellt, lässt er sich in die verschiedensten Kulturkonzepte einpassen. Die Arbeit legt die Bauhaus-Rezeption in Deutschland zu zwei verschiedenen Zeiten vergleichend dar. Im ersten Schritt wird die Ost- mit der Westrezeption verglichen. Dieser synchrone Vergleich wird zu zwei epochalen Umbruchsituationen durchgeführt; zum einen von 1945 bis Mitte der 50er Jahre, zum anderen von 1989 bis Mitte der 90er Jahre. Auf dieser Grundlage wird geprüft, wie sich die östliche als auch die westliche Wahrnehmung des Bauhaus von 1945-1955 gegenüber der Bauhausrezeption nach 1989 abhebt (diachroner Vergleich). Die Jahre 1945-1955 beschreiben die Entwicklung des Auseinanderbrechens der deutschen Nation in zwei autonome deutsche Staaten. Mit dem Jahr 1989 wird die Entwicklung umgekehrt: Deutschland wächst zu einer Kulturnation zusammen. Durch die Periodisierung (1945/1989) wird geklärt, wie das wiedervereinigte Deutschland auf kultureller Ebene mit der Vergangenheit des Kalten Krieges umgeht. Weil sich an der Bauhaus-Pädagogik am ehesten die reale Umsetzung der ‚Bauhaus-Idee’ ablesen lässt, analysiert meine Arbeit die pädagogischen Konzeptionen an deutschen Kunstschulen. Dabei wird in den Institutionsgeschichten der politisch-gesellschaftliche Rahmen stets mitgedacht, der Restituierungsversuche ermöglicht oder scheitern lässt. Im Zentrum meiner Arbeit steht nicht die Analyse der Sache ‚Bauhaus, sondern dessen Missdeutung und Umdeutung in politisch divergenten Zeiten. Für die Zeit 1945-1955 beschreibe ich auf westdeutscher Seite die Hochschule für Gestaltung in Ulm und die Werkakademie bzw. Werkkunstschule in Kassel. Im Osten konzentriert sich der Blick auf die historischen Bauhaus-Stätten: Weimar und Dessau. Nach der Wende vermischen sich die bis dahin getrennten Rezeptionsstränge von Ost und West. In der wiedervereinigten Bundesrepublik existieren neben dem Bauhaus-Archiv nunmehr zwei zusätzliche Institutionen: die Bauhaus-Universität in Weimar und die Stiftung Bauhaus Dessau. Wie wird in dieser historischen Situation das Bauhaus-Erbe aufgeteilt und verwaltet?
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
A stand-alone power system is an autonomous system that supplies electricity to the user load without being connected to the electric grid. This kind of decentralized system is frequently located in remote and inaccessible areas. It is essential for about one third of the world population which are living in developed or isolated regions and have no access to an electricity utility grid. The most people live in remote and rural areas, with low population density, lacking even the basic infrastructure. The utility grid extension to these locations is not a cost effective option and sometimes technically not feasible. The purpose of this thesis is the modelling and simulation of a stand-alone hybrid power system, referred to as “hydrogen Photovoltaic-Fuel Cell (PVFC) hybrid system”. It couples a photovoltaic generator (PV), an alkaline water electrolyser, a storage gas tank, a proton exchange membrane fuel cell (PEMFC), and power conditioning units (PCU) to give different system topologies. The system is intended to be an environmentally friendly solution since it tries maximising the use of a renewable energy source. Electricity is produced by a PV generator to meet the requirements of a user load. Whenever there is enough solar radiation, the user load can be powered totally by the PV electricity. During periods of low solar radiation, auxiliary electricity is required. An alkaline high pressure water electrolyser is powered by the excess energy from the PV generator to produce hydrogen and oxygen at a pressure of maximum 30bar. Gases are stored without compression for short- (hourly or daily) and long- (seasonal) term. A proton exchange membrane (PEM) fuel cell is used to keep the system’s reliability at the same level as for the conventional system while decreasing the environmental impact of the whole system. The PEM fuel cell consumes gases which are produced by an electrolyser to meet the user load demand when the PV generator energy is deficient, so that it works as an auxiliary generator. Power conditioning units are appropriate for the conversion and dispatch the energy between the components of the system. No batteries are used in this system since they represent the weakest when used in PV systems due to their need for sophisticated control and their short lifetime. The model library, ISET Alternative Power Library (ISET-APL), is designed by the Institute of Solar Energy supply Technology (ISET) and used for the simulation of the hybrid system. The physical, analytical and/or empirical equations of each component are programmed and implemented separately in this library for the simulation software program Simplorer by C++ language. The model parameters are derived from manufacturer’s performance data sheets or measurements obtained from literature. The identification and validation of the major hydrogen PVFC hybrid system component models are evaluated according to the measured data of the components, from the manufacturer’s data sheet or from actual system operation. Then, the overall system is simulated, at intervals of one hour each, by using solar radiation as the primary energy input and hydrogen as energy storage for one year operation. A comparison between different topologies, such as DC or AC coupled systems, is carried out on the basis of energy point of view at two locations with different geographical latitudes, in Kassel/Germany (Europe) and in Cairo/Egypt (North Africa). The main conclusion in this work is that the simulation method of the system study under different conditions could successfully be used to give good visualization and comparison between those topologies for the overall performance of the system. The operational performance of the system is not only depending on component efficiency but also on system design and consumption behaviour. The worst case of this system is the low efficiency of the storage subsystem made of the electrolyser, the gas storage tank, and the fuel cell as it is around 25-34% at Cairo and 29-37% at Kassel. Therefore, the research for this system should be concentrated in the subsystem components development especially the fuel cell.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Das neuronale Adhäsionsmolekül L1 wird neben den Zellen des Nervensystems auf vielen humanen Tumoren exprimiert und ist dort mit einer schlechten Prognose für die betroffenen Patienten assoziiert. Zusätzlich zu seiner Funktion als Oberflächenmolekül kann L1 durch membranproximale Spaltung in eine lösliche Form überführt werden. In der vorliegenden Arbeit wurde der Einfluss von L1 auf die Motilität von Tumorzellen untersucht. Lösliches L1 aus Asziten führte zu einer Integrin-vermittelten Zellmigration auf EZM-Substraten. Derselbe Effekt wurde durch Überexpression von L1 in Tumorlinien beobachtet. Weiterhin führt die L1-Expression zu einer erhöhten Invasion, einem verstärkten Tumorwachstum in NOD/SCID Mäusen und zur konstitutiven Aktivierung der MAPK ERK1/2. Eine Mutation in der zytoplasmatischen Domäne von hL1 (Thr1247Ala/Ser1248Ala)(hL1mut) führte hingegen zu einer Blockade dieser Funktionen. Dies weist daraufhin, dass nicht nur lösliches L1, sondern auch die zytoplasmatische Domäne von L1 funktionell aktiv ist. Im zweiten Teil der Arbeit wurde der Mechanismus, der L1-vermittelten Signaltransduktion untersucht. Die zytoplasmatische Domäne von L1 gelangt nach sequenzieller Proteolyse durch ADAM und Presenilin-abhängiger γ-Sekretase Spaltung in den Zellkern. Diese Translokation im Zusammenspiel mit der Aktivierung der MAPK ERK1/2 durch L1-Expression führt zu einer L1-abhängigen Genregulation. Die zytoplasmatische Domäne von hL1mut konnte ebenfalls im Zellkern detektiert werden, vermittelte jedoch keine Genregulation und unterdrückte die ERK1/2 Phosphorylierung. Die L1-abhängige Induktion von ERK1/2-abhängigen Genen wie Cathepsin B, β3 Integrin und IER 3 war in Zellen der L1-Mutante unterdrückt. Die Expression des Retinsäure-bindenden Proteins CRABP-II, welches in hL1 Zellen supprimiert wird, wurde in der L1-Mutante nicht verändert. Weitere biochemische Untersuchungen zeigen, dass die zytoplasmatische Domäne von L1 Komplexe mit Transkriptionsfaktoren bilden kann, die an Promoterregionen binden können. Die dargestellten Ergebnisse belegen, dass L1-Expression in Tumoren an drei Funktionen beteiligt ist; (i) L1 erhöht Zellmotilität, (ii) fördert Tumorprogression durch Hochregulation von pro-invasiven und proliferationsfördernden Genen nach Translokation in den Nukleus und (iii) schützt die Zellen mittels Regulation pro- bzw. anti-apoptotischer Gene vor Apoptose. Die mutierte Phosphorylierungsstelle im L1-Molekül ist essentiell für diese Prozesse. Die Anwendung neuer Therapien für Patienten mit L1-positiven Karzinomen kann mit Hinblick auf die guten Erfolge der Antikörper-basierenden Therapie mit dem mAk L1-11A diskutiert werden.
Resumo:
Informations- und Kommunikationstechnologien über das Internet bieten vielfältige Möglichkeit innovative Lernumgebungen zu schaffen. Mit der Zukunftswerkstatt-online wird der Versuch unternommen, die Lernmethode Zukunftswerkstatt, als telekooperative Lernumgebung zu gestalten. Die Entwicklung dieser internetbasierten Lernumgebung und das damit verbundene Dissertationsvorhaben zeichnet sich vornehmlich durch den partizipativen und prozessorientierten Austausch sowohl mit Informatikern als auch mit potentiellen Nutzern in einer Pilotphase aus. Die zentrale Motivation des Forschungsvorhabens erklärt sich über die Entwicklung von Möglichkeiten Lernergruppen Raum zu geben sich ihrer persönlich bedeutsamen Probleme bewusst zu werden, Ideen für Lösungsstrategien zu entwickeln und konkrete Veränderungen anzugehen. Das Forschungsdesign dieser Arbeit bedient sich verschiedener Erhebungs- und Auswertungsmethoden der empirischen Sozialforschung mit dem Ziel, die Grenzen einzelner Methoden zu minimieren, um zu differenzierten Erkenntnissen im Forschungsfeld zu gelangen. Die Evaluation des Forschungsvorhabens begründet sich vorwiegend aus Methoden der qualitativen Sozialforschung (teilnehmende Beobachtung, schriftlichen Befragung, linguistische Analyse der Chatbeiträge sowie fokussierte Interviews im Rahmen von drei Fallstudien). Im Sinne der Handlungs- und Aktionsforschung liegt das Forschungsinteresse zum einen in der Entwicklung der Zukunftswerkstatt-online unter besonderer Berücksichtigung der Funktionen, Softwareergonomie, zum anderen hinsichtlich der Frage nach den Möglichkeiten zur kreativen Gestaltung von Lernprozesse. Im Fokus des Interesses stehen daher folgende Forschungsfragen: 1. Wie muss eine Zukunftswerkstatt-online gestaltet werden, um als effektives Problemlöse- und Erschließungsinstrument für offene Möglichkeitsräume zu funktionieren? 2. Was kann eine Zukunftswerkstatt-online hinsichtlich der kommunikativen Aufgaben für Lehrende und Lerngruppen leisten? 3. Welche Lehr-/ Lernvoraussetzungen lassen sich für die Anwendung einer Zukunftswerkstatt-online formulieren? Aufgrund der Auswertungen der o.g. Evaluationsmethoden lassen sich folgende signifikante Aspekte bezüglich des Anregungsgehalts der Zukunftswerkstatt-online benennen: 1. Aspekt der Situiertheit: Die Mischung aus Vorstrukturierung durch die drei Phasen der Methode auf der einen Seiten und den Freiraum hinsichtlich der inhaltlichen Gestaltung wird von den Probanden als positiv und unterstützend für den Lernprozess bewertet. 2. Aspekt der multiplen Perspektive: Mit der Zukunftswerkstatt-online wird eine strukturierte Zusammenarbeit in Gruppen ermöglicht. Problemfelder können somit aus unterschiedlichen Perspektiven dargestellt werden. 3. Aspekt des Lernens im sozialen Kontext: Der "Community" Gedanke des Internets wird während der Arbeit mit der Zukunftswerkstatt-online gefördert. Es lassen sich drei unterstützende Faktoren hierzu benennen: - Der vorgegebene Interaktionsrahmen der Methode. - Die von den Lernenden gewählte Inhalte. - Die Auswahl der Kooperationspartner. Hinsichtlich der Förderung von Schlüsselkompetenzen kann die Zukunftswerkstatt-online folgendes leisten: Förderung der fachlichen Kompetenz: Die Zukunftswerkstatt-online stärkt mediale Kompetenzen der Teilnehmer. Darüber hinaus werden durch die Möglichkeiten der Dokumentation des Diskussionsverlaufs und der Speicherung von Daten, Informationen nachhaltige gesichert. Förderung der sozialen Kompetenz: Aufgrund der Arbeit in einem weites gehenden hierarchiefreien Raum wird vernetzten Arbeiten und synergetischer Austausch der Teilnehmer ermöglicht. Förderung der personalen Kompetenz: Die kommunikativen Kompetenzen werden gefördert sowie die Entwicklung eines Methodenrepertoires für die Gestaltung von Gruppenprozessen in eigenen Handlungsfeldern der Teilnehmer ausgebaut. Folgende Voraussetzung lassen sich aus den Forschungsergebnissen ableiten, die bei der Durchführung einer Zukunftswerkstatt-online unterstützend wirken: Für Lernende: - Grundlagen der Computer und Internetkompetenz, - Hohe Selbstlernkompetenz, - Kompetenzen zur Kooperation, - Schriftsprachliche Kompetenz und - Einbringung einer persönlich bedeutsamen Problemstellung. Für Lehrende: - Kompetenzen in der Organisation/Administration von Lernprozessen, - Unterstützung der Lernprozesse durch klare Anweisungen und Hilfestellungen bei der Bewältigung von Problemen. Zusammenfassend lässt sich feststellen, dass die Zukunftswerkstatt-online den aktiven Umgang, die Auseinandersetzung und die Konstruktion von handlungsorientiertem Wissen fördert. Darüber hinaus eröffnet sie in einem noch relativ neuen Wirkungsfeld der Pädagogik Möglichkeiten, neue Formen des Lehren und Lernens im virtuellen Raum zu erproben, zu evaluieren und perspektivisch weiter zu entwickeln.
Resumo:
Im Dezember 1997 veröffentlichte die Frankfurter Allgemeine Zeitung den als Rechtsgutachten abgefassten Beitrag des Heidelberger Juristen Friedrich-Christian Schoeder (Schroeder 1997). Die Frage, die Autor und Zeitung eher spielerisch als aus konkretem Anlass umtrieb, galt dem rechtlichen Status eines Menschen, dessen Kopf auf den Körper eines anderen Menschen transplantiert wurde. Medizinisch waren und sind solche Eingriffe noch nicht durchführbar, aber immerhin schienen sie für den Autor und die Zeitung eine Aktualität zu besitzen. Auch bei folgenden Auseinandersetzungen, die in den Medien um die Konsequenzen der medizinisch-technischen Entwicklung geführt wurden, geraten Bewusstsein, Subjektivität und Körper zum statischem Abbild des Gegenwärtigen, sie werden nicht als Substrat historischer Prozesse begriffen. Ohne den Begriff der Vergangenheit plaudern sich eine Vielzahl Autoren durch die Zukunft. In dieser muss auch der auf einen fremden Körper übertragene Kopf als Rechtssubjekt verwaltet werden. Aber wie verändert sich der Mensch, durch eine medizinische Maßnahme vervollständigt, die dauerhaft seine Körpergrenze verschiebt? Die Transplantationsmedizin ist bei der Auseinandersetzung um Subjektivität nicht nur dann von besonderem Interesse, wenn ein Kopf auf, sondern auch, wenn ein gespendetes Organ in einen fremden Körper verpflanzt wird. Die Trennung von Fremd und Eigen, Außen und Innen ist eng mit dem Zivilisationsprozess und der Subjektwerdung verbunden. Was körperlich durch medizinische Maßnahmen verschoben wird, die Grenze zwischen Außen und Innen, ist die Bedingung der Möglichkeit von Subjektivität. Der Titel dieser Arbeit, Der Prothesengott, verweist auf die individuellen und zivilisatorischen Leistungen, die vollbracht werden mussten, um mit Fug und Recht „Ich“ sagen zu können. Der Begriff Prothesengott ist der Freudschen Schrift Das Unbehagen in der Kultur entnommen. Freud schreibt dort vom Ideal des Prothesengottes und das erste Kapitel der hier vorgelegten Arbeit ist der Entfaltung dieses Ideals gewidmet. Dieses Begriffspaar hat mehr Bedeutungsnuancen, als Freud an Ort und Stelle entwickelte. Es umfasst die Bedeutung von Mythos und Gott als Prothesen, als Ideale, die den Menschen vervollständigten. Aber auch die Bedeutung von Theorien, Ideen, schlicht Idealen als Prothesen Gottes ist angesprochen, und damit der Versuch, den Verlust Gottes auszugleichen. Und zu guter Letzt benennt es das Ideal eines Gottes durch Prothesen, die Apotheose, wie Freud sie meinte: Als Vergötzung der Prothesen, mit denen der Mensch sich vervollständigt, um sich nach dem Tod Gottes selber ein Versprechen auf Erlösung sein zu können. Mit dieser Entfaltung soll die Zivilisation wie die individuelle Entwicklung als ein Prozess rekonstruiert werden, in dem Subjektivität gleichzeitig hervorgebracht und beschädigt wird. Diese Dialektik von Zivilisation und Barbarisierung findet ihren vorläufigen Höhepunkt im Fortschreiten der technischen Mittel unserer Zeit. Zur empirischen Fassung der historisch vorfindlichen Subjektivität wurden Patienten der Transplantationseinheit der Universität Leipzig gebeten, in den ersten drei Monaten nach der Operation Tagebücher auszufüllen. Diese Tagebücher wurden mit statistischen und hermeneutischen Methoden ausgewertet. Die Transplantationserfahrung offenbart sich in den Tagebüchern zwar als besondere, aber in eine Vielzahl von Techniken der Körpergestaltung eingebettete Maßnahme. Neben einer kritischen Würdigung des methodischen Vorgehens wird im fünften Kapitel die Transplantationserfahrung in den Kontext anderer Forschungsergebnisse zur Gestaltung des Körpers gestellt. Deren kritische Diskussion und die Transplantationserfahrungen bieten einen Ausblick darauf, was Eingedenken der Natur im Subjekt heute bedeuten kann.
Resumo:
Die hier vorliegende Arbeit wurde im Rahmen eines europäischen Projektes mit dem Titel „Improving Fraxinus (Ash) productivity for European needs by testing, selection, propagation and promotion of improved genetic resources“ an der Niedersächsischen Forstlichen Versuchsanstalt, Abteilung Waldgenressourcen erstellt. Im Rahmen des Projektes wurden 62 Plusbäume aus einem 15 Jahre alten europäischen Herkunfts-/ Nachkommenschaftsversuch in den Niedersächsischen Forstämtern Bovenden und Dannenberg nach den Kriterien Stammform und Wuchsleistung für die vegetative Vermehrung ausgewählt. Ziel dieser Arbeit war die Optimierung bestehender in vitro Protokolle sowie die Entwicklung eines bisher noch nicht existierenden Kryokonservierungsprotokolls für in vitro Sprossspitzen. Im ersten Teil dieser Arbeit wird die Entwicklung des in vitro Protokolls für Fraxinus excelsior dargestellt. Die Optimierung der Methoden zur Etablierung, Vermehrung und Bewurzelung erfolgte durch Versuchsreihen mit unterschiedlichen Klonen, so dass insgesamt 26 der selektierten Plusbäume erfolgreich in vitro etabliert werden konnten. Achselknospen frischer Triebe der Pfropflinge der Mutterbäume stellten die beste Explantatquelle dar. Die Explantate wurden mit 0,2 % Quecksilberchlorid (HgCl2) oberflächensterilisiert bevor sie auf hormonfreies Woody Plant Medium (WPM) transferiert wurden. Nach zwei Wochen erfolgte ein Transfer auf WPM mit 4 mg/l 6-Benzylaminopurine (BAP) und 0,15 mg/l Indole-3-butyric acid (IBA). Die besten Vermehrungsraten wurden auf WPM mit 4 mg/l BAP, 0,15 mg/l IBA und 0,01 mg/l TDZ und 0,7 % Agar in Honiggläsern mit einem Plastikdeckel erzielt. Als Bewurzelungsmedium wurde 0,5 konzentriertes Murashige und Skoog (MS) Medium mit 2 mg/l IBA, 0,25 mg/l BAP und 0,8 % Agar verwandt. Im zweiten Teil der Arbeit werden die Versuchsreihen zur Entwicklung des Kryokonservierungsprotokolls von in vitro Sprossspitzen dargestellt. Zur Entwicklung der Methode wurden die Vorbehandlungsbedingungen verbessert und zwei Techniken, die Alginat- / Dehydrati-onsmethode und die Vitrifikationsmethode mit Hilfe der sogenannten PVS2-Lösung (Plant Vitrification solution number 2) getestet. Die optimierte PVS2-Methode erwies sich als die für Esche besser geeignete Technik und ließ sich erfolgreich zur Kryokonservierung juveniler und adulter Kulturen anwenden. Die Regenerationsraten lagen zwischen 50 und 100 % für juvenile bzw. 50 und 80 % für adulte Kulturen.
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
Die an der Glutathionsynthese im Chloroplasten von Spinatblättern beteiligten Enzyme sind auf eine lichtabhängige Regulation durch Thioredoxine (Trx) und Glutaredoxine (Grx) hin untersucht worden. Dazu wurde eine neue, vereinfachte Methode zur Aktivitätsbestimmung für die gamma-Glutamylcystein- und Glutathionsynthetase auf der Kapillarelektrophorese entwickelt. Untersuchungen mit den homologen Thioredoxinen Trx m und Trx f aus Spinatchloroplasten und mit dem E.coli Trx und E.coli Grx 1 zeigten, dass bei beiden Enzymen keine Redoxmodulation durch diese Proteine stattfindet. Weitere Untersuchungen mit der Glutathionsynthetase zeigten keinen Einfluss von Dithiothreit, Sulfit-Ionen und Ascorbat auf die Enzymaktivität. Nur H2O2, in unphysiologischen Konzentrationen, bewirkte eine leichte Abnahme der Ausgangsaktivität. Im Fall der gamma-Glutamylcysteinsynthetase konnten verschiedene Einflüsse ausgemacht werden. So war mit Dithiothreit und H2O2 bei niedrigen Konzentrationen eine Stimulation und bei höheren Konzentration eine Inhibition der Enzymaktivität festzustellen: Sulfit-Ionen zeigten eine starke Stimulierung der gamma-Glutamylcysteinsynthetase über einen weiten Konzentrationsbereich, wobei eine starke pH-Wert-Abhängigkeit der Stimulation zu beobachten war. Ascorbat zeigte, wie bei der Glutathionsynthetase, keinen Einfluss auf die Enzymaktivität der gamma-Glutamyl-cysteinsynthetase. In einem zweiten Teil der Arbeit über die Glutaredoxine des Spinats konnte ein 12,4 kDa Protein mit Thioltransferase-Aktivität, das bisher als cytosolisches Glutaredoxin beschrieben wurde, aufgereinigt und mittels N-terminaler Sequenzierung eindeutig als ein Glutaredoxin identifiziert werden. Überdies konnte ein noch nicht beschriebenes 12,8 kDa Protein mit Thioltransferase-Aktivität aus Spinatchloroplasten aufgereinigt werden. Durch Peptid-Sequenzierung gelang es dieses Protein auch als ein Glutaredoxin zu identifizieren. Beide pflanzlichen Glutaredoxine zeigten keine Modulation der Aktivitäten der chloroplastidären Fructosebisphosphatase (FbPase) und NADPH-Malatdehydrogenase (NADPH-MDH). Auch war mit beiden Glutaredoxinen keine Dehydroascorbatreduktase-Aktivität, oder eine Stimulation der Ribonucleotidreduktase aus Lactobacillus leichmannii festzustellen.
Resumo:
Die Dissertation befasst sich mit der Geschichte des Arbeitserziehungslagers (AEL) Breitenau, das 1940 von der Gestapostelle Kassel auf dem Gelände der Landesarbeitsanstalt Breitenau in Guxhagen gegründet wurde und bis zum Kriegsende bestand. Darüber hinaus wird auch der Frage nachgegangen, wie nach der NS-Zeit mit der Geschichte des Lagers, den Opfern und den Tätern umgegangen wurde. Die Dissertation ist in drei Teile gegliedert. Der erste Teil gibt einen Überblick über die Geschichte der Geheimen Staatspolizeistelle Kassel, der das Lager unterstand und die als zentrale Verfolgungsbehörde für den Regierungsbezirk Kassel zuständig war. Dabei wird vor allem aufgezeigt, wie die Gestapostelle Kassel entstanden ist, wie sie aufgebaut war und wer die Leiter und Mitarbeiter während des Zweiten Weltkrieges waren, die die Verfolgungsmaßnahmen organisierten und durchführten. Der zweite Teil der Dissertation befasst sich mit der eigentlichen Lagergeschichte. Breitenau war eines der ersten Arbeitserziehungslager überhaupt. Die Hauptfunktion bestand darin, ausländische Zwangsarbeiter und Zwangsarbeiterinnen, die sich dem Arbeitseinsatz widersetzt hatten, durch harte Bestrafung gefügig zu machen. Gleichzeitig wurden in das AEL aber auch deutsche und ausländische Gefangene eingewiesen, die aus politischen, rassischen, religiösen oder weltanschaulichen Gründen verhaftet worden waren. Das Lager unterstand zwar der Geheimen Staatspolizei Kassel, wurde aber von den Bediensteten der Landesarbeitsanstalt mit geleitet. Im Verlaufe des Zweiten Weltkrieges waren im AEL Breitenau etwa 8.300 überwiegend ausländische Schutzhaftgefangene inhaftiert, unter denen sich ca. 1.900 Frauen und 6.400 Männer befanden. Bei den Einweisungen wirkten neben der Gestapostelle Kassel und der Gestapostelle Weimar zahlreiche Orts- und Kreispolizeibehörden mit, wodurch ein flächendeckender Verfolgungsapparat entstand. Insgesamt lassen sich über 1.000 letzte Wohnorte von Gefangenen ermitteln. Die Haft- und Lebensbedingungen im Lager waren vor allem für die ausländischen Gefangenen besonders unmenschlich, und es gab mehrere Todesfälle. Nachweislich wurden mehr als 750 Gefangene in Konzentrationslager deportiert, was für viele den Tod bedeutete. Außerdem wurden mindestens 18 polnische Gefangene von Angehörigen der Gestapo Kassel erhängt und noch unmittelbar vor Kriegsende ein Massenmord an 28 Gefangenen verübt. Erst mit dem Einmarsch der amerikanischen Soldaten am Ostersamstag 1945 wurde das Arbeitserziehungslager Breitenau endgültig aufgelöst. Im dritten Teil der Dissertation wird der Frage des Umgangs mit dem damaligen Geschehen nachgegangen. Dabei lässt sich feststellen, dass die Täter und Mittäter von deutschen Spruchkammern und Gerichten gar nicht oder kaum bestraft wurden. Gleichzeitig wurden ihnen verschiedene Möglichkeiten geboten, sich in die Gesellschaft zu integrieren. Die ehemaligen Gefangenen hatten dagegen keinen Anspruch auf Entschädigung, und auch eine gesellschaftliche Würdigung wurde ihnen versagt. Erst seit den 90er Jahren trat hier eine Veränderung ein, die allerdings für viele Verfolgte zu spät kam. Die Geschichte des Arbeitserziehungslagers Breitenau war viele Jahre verdrängt worden. Das Gelände diente bis 1949 als Landesarbeitsanstalt, dann als geschlossenes Erziehungsheim, und seit 1974 besteht dort eine psychiatrische Einrichtung. Erst 1979 wurde durch ein Forschungsprojekt an der Gesamthochschule Kassel die NS-Geschichte „wiederentdeckt“ und 1984 die Gedenkstätte Breitenau eingerichtet, die als Gedenk- und Bildungsort an das damalige Geschehen erinnert.