732 resultados para Nun moth
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Das schriftliche Kulturgut zu bewahren ist eine der wichtigsten Aufgaben der Bibliotheken. Aus den jährlich zugewiesenen Mitteln können sie diese Aufgabe aber nicht allein finanzieren. Deshalb versuchen die Bibliotheken über verschiedene Maßnahmen, die Öffentlichkeit über diese Situation zu informieren. Die Sparkassen-Kulturstiftung Hessen-Thüringen hatte sich dieses Themas 2004 angenommen und unter dem Thema "Zerrissen, zernagt, zerfallen" Bestandsschäden in hessischen Bibliotheken in einer zentralen Ausstellung vorgestellt. Nun will die Universitätsbibliothek Kassel in einer eigenen Ausstellung auf die lokalen Probleme von Restaurierung und Konservierung ihrer Altbestände aus der Landesbibliothek und Murhardsche Bibliothek der Stadt Kassel in den Räumen der Kasseler Sparkasse in der Wolfsschlucht hinweisen. Nach einer Erhebung von 2004 sind 42 % des Buchbestandes der hessischen Bibliotheken durch saures Papier oder Verschleiß geschädigt. Die Landesbibliothek Kassel hat als Archivbibliothek für Nordhessen eine Erhaltungspflicht für die in Nordhessen gedruckten Bücher. Bei einem Bestand von gut 450.000 Büchern ist die Anzahl der restaurierungsbedürftigen Bücher ein Massenproblem, das die Bibliothek finanziell völlig überfordert. Während sich für die attraktiven Stücke der Handschriftensammlung relativ leicht ein Sponsor für Restaurierungsarbeiten findet, ist das eigentliche Problem der Bibliothek aber die Erhaltung des normalen Bestandes, nämlich der Massen an Archivexemplaren, die oft äußerlich recht unattraktiv, aber für die Forschung zur hessischen Geschichte und Landeskunde unverzichtbar sind. Das besonders Schlimme an den Säureschäden in den Büchers ist, das sich im Laufe des Zersetzungsprozesses von selbst immer mehr Säure bildet, so daß sich der Zerfallsprozeß immer mehr beschleunigt.
Resumo:
Am Institut für Mikrostrukturtechnologie und Analytik wurde eine neue Technik entwickelt, die neue Anwendungen und Methoden der Mikro- und Nanostrukturierung auf Basis eines neuen Verfahrens erschlossen hat. NANOJET führt über die passive Rastersondenmikroskopie hinaus zu einem vielseitigen, aktiven Bearbeitungswerkzeug auf der Mikro- und Nanometerskala. NANOJET (NANOstructuring Downstream PlasmaJET) ist eine aktive Rasterkraft-Mikroskopie-Sonde. Radikale (chemisch aktive Teilchen, die ein ungepaartes Valenzelektron besitzen) strömen aus dem Ende einer ultradünnen, hohlen Rasterkraftmikroskop-Spitze. Dadurch wird es möglich, über die übliche passive Abtastung einer Probenoberfläche hinausgehend, diese simultan und in-situ durch chemische Reaktionen zu verändern. Die Abtragung von Material wird durch eine chemische Ätzreaktion erreicht. In dieser Arbeit wurde zum größten Teil Photoresist als Substrat für die Ätzexperimente verwendet. Für das Ätzen des Resists wurden die Atome des Fluors und des Sauerstoffs im Grundzustand als verantwortlich identifiziert. Durch Experimente und durch Ergänzung von Literaturdaten wurde die Annahme bestätigt, dass Sauerstoffradikale mit Unterstützung von Fluorradikalen für die hohen erzielten Ätzraten verantwortlich sind. Die Beimischung von Fluor in einem Sauerstoffplasma führt zu einer Verringerung der Aktivierungsenergie für die Ätzreaktion gegenüber Verwendung reinen Sauerstoffs. In weiterer Folge wurde ein Strukturierungsverfahren dargestellt. Hierbei wurden "geformte Kapillaren" (mikrostrukturierte Aperturen) eingesetzt. Die Herstellung der Aperturen erfolgte durch einen elektrochemischen Ätzstop-Prozess. Die typische Größe der unter Verwendung der "geformten Kapillaren" geätzten Strukturen entsprach den Kapillarenöffnungen. Es wurde ein Monte-Carlo Simulationsprogramm entwickelt, welches den Transport der reaktiven Teilchen in der langen Transportröhre simulierte. Es wurde sowohl die Transmission der Teilchen in der Transportröhre und der Kapillare als auch ihre Winkelverteilung nach dem Verlassen der Kapillare berechnet. Das Aspektverhältnis der Röhren hat dabei einen sehr starken Einfluss. Mit einem steigenden Aspektverhältnis nahm die Transmission exponentiell ab. Die geschaffene experimentelle Infrastruktur wurde genutzt, um auch biologische Objekte zu behandeln und zu untersuchen. Hierfür wurde eine neue Methodik entwickelt, die eine dreidimensionale Darstellung des Zellinneren erlaubt. Dies wurde durch die kontrollierte Abtragung von Material aus der Zellmembran durchgeführt. Die Abtragung der Zellmembran erfolgte mittels Sauerstoffradikalen, die durch eine hohle Spitze lokalisiert zum Ort der Reaktion transportiert wurden. Ein piezoresistiver Cantilever diente als Sensor in dem zur Bildgebung eingesetzten RKM. Das entwickelte Verfahren ermöglicht es nun erstmals, schonend Zellen zu öffnen und die innen liegenden Organellen weiter zu untersuchen. Als Nachweis für weitere Verwendungsmöglichkeiten des NANOJET-Verfahrens wurde auch Knochenmaterial behandelt. Die Ergebnisse dieser Experimente zeigen klar, dass das Verfahren für vielfältige biologische Materialien verwendbar ist und somit nun ein weiter Anwendungskreis in der Biologie und Medizin offen steht.
Resumo:
Spinnenseide gehört zu den stabilsten bekannten Polymerverbindungen. Spinnfäden können bis auf das Dreifache ihrer ursprünglichen Länge gedehnt werden, bevor sie reißen, und dabei mit rund 160 MJ/m³ mehr als dreimal soviel Energie absorbieren wie die stärkste synthetisch hergestellte Faser Kevlar (50 MJ/m³). Dabei weisen Spinnfäden mit 2 bis 5 Mikrometer nur ein Zehntel des Durchmessers eines menschlichen Haares auf. Das präzise, berührungslose Bearbeiten von Spinnenseide ist für verschiedene technische Anwendungen interessant, insbesondere wenn dabei ihre außergewöhnlichen Eigenschaften erhalten bleiben. Könnten die von Natur aus dünnen Seidenfäden gezielt in ihrem Durchmesser verringert werden, so wären sie unter anderem in der Mikroelektronik einzusetzen. Hier könnten sie als Trägermaterial für eine dünne, elektrisch leitfähige Schicht fungieren. Man erhielte Nanodrähte, die auch in mechanisch besonders belasteten Mikroelektronikbauteilen (MEMS) Verwendung finden könnten. In dieser Arbeit wird die Verwendung der laserinduzierten Ablation zur gezielten Bearbeitung von Haltefäden der Schwarzen Witwe (Latrodectus hesperus) beschrieben. Eingesetzt wurde ein VUV-Excimerlaser vom Typ LPF 205 (Lambda-Physik, Göttingen) mit einer Wellenlänge von 157 nm und einer Pulsdauer von 18 ns. Eine berührungslose Laserbearbeitung bei 157 nm erlaubt einen effizienten und präzisen Abtrag von Material durch Ablation aufgrund der geringen optischen Eindringtiefe von unter 100 nm oberhalb einer Schwellenfluenz (Energie/Fläche) von Φth=29 mJ/cm², ohne dabei das umgebende Material thermisch zu beeinträchtigen. Parallel zur Ablation setzt allerdings eine wellenförmige Oberflächenstrukturierung auf der Faseroberfläche ein, wodurch die mechanische Belastbarkeit der Faser entscheidend geschwächt wird. Die Ursache hierfür liegt im Abbau materialbedingter Spannungsfelder („stress release“) innerhalb einer durch das Laserlicht induzierten dünnen Schmelzschicht. Im Rahmen dieser Arbeit ist es nun gelungen, diese Strukturen durch einen anschließenden Glättungsprozeß zu entfernen. Dabei wird auf der bestrahlten Oberfläche mittels Laserlichts eine glatte Ablation erzielt. Mit feinerer Abstufung dieser Prozeßschritte konnte der Durchmesser des verwendeten Spinnenseidefadens zum Teil um 70 Prozent bis auf ca. 750 nm verringert werden. Durch Zugfestigkeitsexperimente wurde belegt, daß die mechanischen Eigenschaften der so bearbeiteten Spinnenseide weitgehend erhalten bleiben. Die im Rahmen dieser Arbeit angewandte Methode erlaubt somit eine präzise Laserablation von Spinnenseide und ähnlichen hochabsorbierenden Materialien, ohne deren Kernsubstanz in ihrer Beschaffenheit zu verändern.
Resumo:
Während der Spermatogenese wird das Element Zink an die Sulfhydrylreste der Cysteine in den Mantelfaserproteinen der Spermienflagellen gebunden. So kann in den noch unreifen Mantelfasern die ungerichtete Ausbildung von Disulfidbrücken verhindert werden. Im Zuge der Spermatozoenreifung während der Nebenhodenpassage wird dieses Zink androgenabhängig zu einem hohen Prozentsatz wieder eliminiert. Die nun gerichtete Ausbildung von Disulfidbrücken ermöglicht die Versteifung der Mantelfasern. Diese Rigidität stellt die Voraussetzung zur progressiven Motilität dar, ohne die eine Fertilisierung der Eizelle im weiblichen Genitaltrakt nicht möglich ist. Da eine negative Korrelation zwischen dem Zinkgehalt von Flagellen und ihrer Motilität besteht (Henkel et al., 1999), hat die Zinkeliminierung während der Nebenhodenpassage eine entscheidende Bedeutung in der Entwicklung der Spermatozoen. Die vorliegende Arbeit untersucht die Mechanismen der epididymalen Zinkeliminierung sowie die an diesem Prozess beteiligten Komponenten und den Verbleib des eliminierten Zinks am System des Bullen, der Ratte und des Menschen. Mittels proteinchemischer Verfahren kann im bovinen System ein zinkbindendes 60 kDa-Protein als Albumin identifiziert werden. Ein 80 kDa-Protein mit zinkbindenden Eigenschaften bleibt unidentifiziert. Die Zinkbindungskapazität der fraktionierten Proteine ist dabei im Caput epididymidis am stärksten ausgeprägt. Atomabsorptionsspektralphotometrische Untersuchungen zeigen die höchsten flagellären Zinkwerte in den Spermien des Rete testis und eine Abnahme des Zinkgehalts zwischen Nebenhodenkopf und -körper. Durch Autometallographie kann eine epitheliale Zinkresorption im Nebenhodenschwanz nachgewiesen werden. Dort erfolgt auch die basale Anreicherung des Zinks. Am Zinkstoffwechsel scheint auch der Macrophage Migration Inhibitory Factor (MIF) beteiligt zu sein. Dieser ist ein Zytokin mit Oxidoreduktasecharakter und kommt unter anderem im Nebenhodenepithel sowie in den Vesikeln des Nebenhoden-Fluids der Ratte vor. MIF zeigt in den hier durchgeführten Untersuchungen sowohl in systemhomologer, als auch in rekombinanter Form in vitro eine Zink-eliminierende Wirkung auf Rattenspermatozoen des Caputs und der Cauda epididymidis und hat somit möglicherweise Einfluss auf den Reifungsprozess der Spermien im Nebenhoden. Lit.: Henkel R, Bittner J, Weber R, Hüther F, Miska W (1999). Relevance of zinc in human sperm flagella and its relation to motility. Fertil Steril 71: 1138-1143
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Infolge der durch die internationalen Schulvergleichstests eingeleiteten empirischen Wende in der Erziehungswissenschaft hat sich die Aufmerksamkeit vom Input schulischen Lehrens und Lernens zunehmend auf die Ergebnisse (Output) bzw. Wirkungen (Outcomes) verlagert. Die Kernfrage lautet nun: Was kommt am Ende in der Schule bzw. im Unterricht eigentlich heraus? Grundlegende Voraussetzung ergebnisorienterter Steuerung schulischen Unterrichts ist die Formulierung von Bildungsstandards. Wie Bildungsstandards mit Kompetenzmodellen und konkreten Aufgabenstellungen im Unterricht des Faches "Politik & Wirtschaft" verknüpft werden können, wird in diesem Beitrag einer genaueren Analyse unterzogen. Vor dem Hintergrund bildungstheoretischer Vorstellungen im Anschluss an Immanuel Kant kommen dabei das Literacy-Konzept der Pisa-Studie sowie die "Dokumentarische Methode" nach Karl Mannheim zur Anwendung.
Resumo:
Seit über zehn Jahren wird in der rechtswissenschaftlichen Literatur der Beweiswert elektronischer Signaturen diskutiert. Alle bisherigen Abhandlungen sind jedoch rein theoretischer Natur. Auch beschäftigen sie sich nur mit einem Teil der Problematik, indem sie lediglich einen relativ kurzen Zeitpunkt nach der Signaturerzeugung betrachten. Praktische Erfahrungen mit der Beweisführung mittels elektronisch signierter Dokumente fehlen vollständig. Im Forschungsprojekt "ArchiSig" konnten nun erstmals praktische Erfahrungen gewonnen werden, die zur Schließung beider Lücken beitragen können. Der vorliegende Aufsatz stellt die aus einer Simulationsstudie gewonnenen Erkenntnisse tatsächlicher Beweiserhebungen mit elektronisch signierten Dokumenten dar und zeigt Konsequenzen für die sichere Langzeitaufbewahrung auf.
Resumo:
Die vorliegende Arbeit liefert erstmals einen umfassenden Überblick über die molekulare Epidemiologie von Methicillin resistenten Staphylococcus aureus (MRSA) eines nordhessischen Krankenhauses inklusive seines Umfeldes und deren Entwicklung in einem Zeitraum von fünf Jahren. Von besonderer Bedeutung ist, dass die MRSA-Stämme hierfür nicht nur anhand ihrer SCCmec-Region (staphylococcal cassette chromosome) typisiert wurden, sondern eine weitergehende Charakterisierung auf Grund der Bestimmung des Vorkommens von Antibiotikaresistenz- und Toxingenen, sowie Plasmiden erfolgte. Dabei wurde ein neuer SCCmec-Typ entdeckt und charakterisiert und weitere noch unbekannte SCCmec-Elemente beschrieben. Bei der Charakterisierung der MRSA-Kollektive konnten bzgl. aller untersuchten Eigenschaften im Laufe der Zeit signifikante Veränderungen beobachtet werden. Am deutlichsten waren diese Unterschiede zwischen dem ältesten Kollektiv aus 1999 und allen nachfolgenden Kollektiven. Die Kollektive aus 2001, 2002, 2003 und 2004 zeigten untereinander größere Ähnlichkeiten, aber dennoch gleichzeitig eine tendenziell divergente Entwicklung einzelner Eigenschaften. Besonders auffallend war das dominante Auftreten von SCCmecIV mit 63-87% der Isolate eines Kollektivs ab 2001, gegenüber 16% in 1999. Weiterhin erfolgte eine markante Veränderung im Vorkommen einzelner Antibiotikaresistenzgene von 1999 bis 2004. So waren aacA-aphD und ermA bei MRSA aus 1999 mit 84% bzw. 90% deutlich häufiger als in allen Kollektiven der folgenden Jahre (aacA-aphD: max. 32%, ermA: max. 40%). Wohingegen ermC ein stets zunehmendes Vorkommen von 3% auf 67% über den Untersuchungszeitraum zeigte. Unkontinuierliches aber statistisch relevant vermehrtes Auftreten von tetM konnte bei Isolaten aus 1999 (40%) und 2004 (74%) nachgewiesen werden. Auch bei Toxingenen zeigten sich deutliche Unterschiede in der zeitlichen Verteilung. Ab 2001 zeigten alle Isolate wesentlich höhere Anteile an sec, seg und sei verglichen mit den MRSA aus 1999. So konnte sec im Kollektiv aus 1999 gar nicht nachgewiesen werden, in denen der Folgejahre mit 54-77%. Die Werte für seg und sei stiegen von 48% bzw. 41% in 1999 kontinuierlich auf über 90% in 2004. Die Häufigkeit von MRSA sowohl mit mehreren Resistenzgenen als auch die mit mehreren Toxingenen nahm im Laufe der Zeit zu und korrelierte mit dem Vorkommen von Plasmiden. Bezüglich seiner Korrelation mit den vorkommenden Plasmiden zeigte SCCmecIV im Erhebungszeitraum besonders deutlich eine Veränderung. So nahm über den Zeitraum der Beobachtung die Anzahl der Stämme die zusätzlich zu einem großen Plasmid ein weiteres kleines Plasmid besaßen signifikant zu. Auch beim Vergleich der SCCmec-Typen der MRSA-Isolate konnten Unterschiede bzgl. aller weiteren untersuchten Eigenschaften dargestellt werden. So zeigten z.B. alle SCCmecIIIA das sea-Gen, während dies bei allen anderen in der vorliegenden Arbeit untersuchten SCCmec-Typen nur vereinzelt vorkam. SCCmecII-Stämme wiesen sowohl die meisten Antibiotikaresistenz- als auch Toxingene auf. Es wurde ferner gezeigt, dass Stämme mit vielen Resistenzgenen auch eine hohe Anzahl Toxingene besaßen und dies im Zusammenhang mit einem erhöhten Plasmidgehalt stehen könnte. Aus den MRSA-Kollektiven isolierte Plasmide konnten aufgrund von Restriktionsanalysen als verwandt zu β-Laktamase-Plasmiden des Grundtyps pI524 und pI258 beschrieben werden. Der in vorliegender Arbeit gezeigte Zusammenhang zwischen der Anzahl von direct repeat units (dru) in der Hypervariablen Region (HVR) und dem SCCmec-Typ half den Unterschied zwischen SCCmecIV und SCCmecIVA, sowie die Sonderstellung des in vorliegender Arbeit erstmalig beschriebenen SCCmecIA/II darzustellen. Nicht alle Isolate konnten einem bekannten SCCmec-Typ zugeordnet werden, es handelt sich bei diesen Ausnahmen um weitere noch unbekannte und hier erstmalig beschriebene SCCmec-Typen. Aufgrund der vorliegenden Arbeit konnte ein neuer SCCmec-Typ definiert werden, namentlich der Typ SCCmecIA/II, der seit 1999 in der Region gehäuft vorkommt Die vorliegenden Untersuchungen zeigten somit, dass die Epidemiologie von MRSA der Region Nordhessen trotz bestehender Gemeinsamkeiten zur MRSA-Situation in ganz Deutschland auch Besonderheiten aufweist. Diese nun zu kennen kann einen Beitrag zur gezielten Verbesserung bisheriger Maßnahmen zur Ausbreitungskontrolle von MRSA in der nordhessischen Region leisten.
Resumo:
Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Resumo:
Die vorliegende Arbeit wird aufzeigen, wie sich die Flucht auf das Leben eines verfolgten Kindes auswirken kann. Dazu soll das Leben vor, während und nach der Flucht anhand von fünf Autobiographien untersucht werden. Die Autobiographien beinhalten die Lebenserinnerungen von Juden, die das Dritte Reich als Kinder und Jugendliche erlebten. Die zu untersuchenden Texte stammen von den in Wien geborenen Autoren Ruth Klüger (‚weiter leben‘) und Egon Schwarz (‚keine Zeit für Eichendorff‘) und den in Berlin geborenen Autoren Ludwig Greve (‚Wo gehörte ich hin? Geschichte einer Jugend‘), George Wyland-Herzfelde (‚Glück gehabt‘) und Hellmut Stern (‚Saitensprünge‘). Alle Autoren mussten ihrer Heimat im Zeitraum von 1935 bis 1942 entfliehen um ihr Leben vor den angeordneten Brutalitäten des nationalsozialistischen Regimes zu retten. Mit vielen Jahren zeitlichem Abstand schrieben die Autoren ihre Lebenserinnerungen nieder. Sie blickten auf ihr Leben vor der Verfolgung zurück und berichten von ihrem ‚neuen‘ Leben danach. Die Wege, die die Autoren während der Flucht einschlugen, könnten unterschiedlicher nicht sein. Und doch eint sie eines: Das rastloses Leben während der Flucht und das Bedürfnis ihre erlebte Geschichte mit anderen Menschen zu teilen. Da sich die vorliegende Arbeit mit der Analyse von autobiographischen Dokumenten beschäftigt, ist es zunächst sinnvoll sich einen Überblick über das Material und den Forschungsbereich zu verschaffen, in dem diese anzusiedeln ist. Der Ausgangspunkt der folgenden Untersuchung lässt sich im Bereich der Erziehungswissenschaftlichen Biographieforschung finden. Daher soll zunächst erläutert werden, was generell unter den Begriffen ‚Biographie‘ und ‚Autobiographie‘ zu verstehen ist. Dies ist für das Verständnis um die Beschaffenheit des analysierten Materials von entscheidender Bedeutung, denn jeder Mensch ist im Grunde ein Experte der Autobiographieforschung. Was es mit dieser gewagten Vermutung auf sich hat, wird sich im Verlauf dieses Kapitels klären. In einem zweiten Schritt soll dann das Erkenntnisinteresse Erziehungswissenschaftlichen Biographieforschung näher erläutert werden. Da jede autobiographische Äußerung aufgrund von Lebenserfahrungen getätigt wird, soll der Frage nachgegangen werden, was Lebenserfahrungen eigentlich genau sind und warum Lebenserfahrungen von besonderem Interesse für die Biographieforschung sind. Dem allgemeinen Erkenntnisinteresse schließt sich nun das spezielle, auf den konkreten Fall dieser Arbeit bezogene Erkenntnisinteresse an, nämlich die ausgewählten Autobiographien auf ihren biographischen Wendepunkt, eine besondere Form der Lebenserfahrung also, hin zu untersuchen. In diesem Fall ist es selbstverständlich sich erst einmal darüber klar zu werden um was genau es sich bei einem biographischen Wendepunkt eigentlich handelt. Wenn man sich intensiver mit einem bestimmten wissenschaftlichen Forschungsfeld beschäftigt, so ist es unerlässlich sich auch mit dem Zustandekommen und der Entwicklung dieses Forschungsfeldes zu beschäftigen. Demzufolge sollen im vierten Teil der Arbeit einige Informationen zur Geschichte der Erziehungswissenschaftlichen Biographieforschung zusammengetragen werden. Die Beschäftigung mit durchgeführten Studien kann Aufschluss darüber geben, welche Felder im Bereich der Biographieforschung bereits untersucht wurden und welche Erkenntnisse von großer Bedeutung für die Erziehungswissenschaft waren und noch bis heute sind. Thematisch schließt sich dem zeitlichen Abriss der Geschichte ein kurzer Überblick über die aktuelle Forschungssituation an, in dem einige bedeutende Arbeiten kurz inhaltlich vorgestellt werden. Die Betrachtung aktueller Forschungsstände gibt Aufschluss über die gegenwärtigen Forschungsschwerpunkte der Biographieforschung, aber auch eine Übersicht über die gegenwärtig populärsten Techniken der Beschäftigung mit Biographien. Obwohl es sich bei der Erziehungswissenschaftlichen Biographieforschung um ein relativ junges Forschungsgebiet handelt, haben sich im Laufe der Jahre dennoch unterschiedliche Formen der Datenerhebung und Datenanalyse entwickelt. Die verschiedenen Möglichkeiten des Forschers sich Daten zu nähren und diese zu interpretieren sollen in zwei separaten Teilen dieser Arbeit erläutert werden. Diese beiden Teile sollen einen Überblick darüber geben, wie vielseitig der Umgang mit biographischen Materialien aussehen kann. Der erste der beiden Teile beschäftigt sich zunächst mit der Frage, wie der Forscher eigentlich an biographisches Material gelangt, welches er später auswerten wird. Im Forschungsbereich der Erziehungswissenschaftlichen Biographieforschung lassen sich drei große Bereiche der Datenerhebung unterscheiden, die sich nach dem Zustandekommen des Ausgangsmaterials richten. Dies sind die Dokumentanalyse, die Durchführung von Interviews und die teilnehmende Beobachtung. Alle drei Formen gilt es an dieser Stelle kurz zu erläutern. Bevor die Autobiographien nun auf ihren biographischen Wendepunkt hin untersucht werden können, ist es zunächst nötig zu beschreiben, in welcher Form die Autobiographien denn analysiert und interpretiert werden sollen. Die Interpretation der Autobiographien orientiert sich am Vorgehen der objektiven Hermeneutik, die in seinen Grundprinzipien vorgestellt und in Anbetracht des vorhandenen Ausgangsmaterials leicht abgewandelt gebraucht werden soll. Der nächste Schritt ist nun die Beschäftigung mit den Autobiographien selbst. Zunächst sollen diese in Kürze inhaltlich zusammengefasst werden um einen Überblick über den beschriebenen Handlungsverlauf zu gewährleisten. Desweiteren lassen sich im Anhang dieser Arbeit tabellarische Lebensläufe mit den wichtigsten Informationen zu jedem der Autoren finden. Nun sollen die Lebensbedingungen der Autoren vor der Flucht, während der Flucht und nach der Flucht untersucht werden. Jenen Äußerungen des Autors, die sich konkret auf die Fluchtvorbereitungen beziehen, wird besondere Aufmerksamkeit zuteil. Ebenso verhält es sich auch mit Ausführungen des Autors, die die Verarbeitung des Fluchterlebnisses thematisieren. Die Analyse der Autobiographien soll so nah wie möglich am Text erfolgen. Um die zitierten autobiographischen Äußerungen dennoch auch vor dem historischen Hintergrund wahrnehmen zu können, werden zusätzliche, die historischen Umstände erläuternde, Materialien mit in die Interpretation einbezogen. Nachdem zu jeder Autobiographie die wichtigsten Erfahrungen vor, während und nach der Flucht beschrieben und interpretiert wurden, wird ein Vergleich der Autobiographien anschließen. Der Vergleich soll anhand von zuvor festgelegten thematischen Feldern erfolgen. Die Flucht war für jeden der Autoren mit individuellen Veränderungen in Bezug auf ihr späteres Leben verbunden. Obwohl die Autobiographien auf den ersten Blick äußerst unterschiedlich erscheinen, lassen sich einige Gemeinsamkeiten, aber auch Unterschiede bezüglich der Erlebnisse vor, während und nach der Flucht finden, die es im Laufe des Vergleiches herauszuarbeiten gilt. Abschließend soll die Frage beantwortet werden, ob sich die Fluchterfahrungen der Autoren zu einer Gesamterfahrung zusammenfassen lassen, die alle teilen.
Resumo:
„Jeder Mensch muss lernen wie er oder sie eine Zukunft im Sinne der Nachhaltigen Entwicklung für sich und gemeinsam mit anderen gestalten kann“ (de Haan 2009, S. 9 f.). Auf den Weltkonferenzen in Rio de Janeiro 1992 und Johannesburg 2002 wurde diese Vorgabe für die Politik und schließlich für die Bildung ausgegeben. Die Aufgabe besteht nun darin, Wege zu finden dies zu erreichen und umzusetzen. Bei den damit einhergehenden Überlegungen spielt die Bildung eine immens wichtige Rolle. An diesem Punkt setzt die vorliegende Arbeit an. Im Mittelpunkt steht die Überprüfung der These, dass Bildung, durch die Ermöglichung eines Bewusstseinswandels der Menschen im Bezug auf nachhaltige Entwicklung als eine Antwort auf die mit dem Globalisierungsprozess verbundenen Probleme verstanden werden kann. In diesem Zusammenhang werden Bildungskonzepte, wie die Bildung für nachhaltige Entwicklung , untersucht und es wird der Frage nachgegangen, wie ein Unterricht im Sinne der nachhaltigen Entwicklung gestaltet werden muss.
Resumo:
„Ihr seid das Salz der Erde. Wenn nun das Salz nicht mehr salzt, womit soll man salzen? Ihr seid das Licht der Welt. So lasst euer Licht leuchten“ (Matthäus 5, 13). Diese Verse aus der Bergpredigt nach Matthäus stellen die einleitenden Worte meiner Examensarbeit dar. Das zentrale Anliegen dieser Arbeit ergibt sich aus der Frage, inwieweit aktuelle gesellschaftliche Themen Berücksichtigung im evangelischen Religionsunterricht finden. Ausgangspunkte des Forschungsvorhabens bilden sowohl meine Rolle als Lehramtsstudentin der evangelischen Religion als auch die Feststellung, dass Jugendliche in Deutschland wachsendes Desinteresse an politischen Belangen zeigen. Es fällt den Heranwachsenden zunehmend schwer, Wege der gesellschaftlichen Teilhabe zu finden, tragfähige Gemeinschaftsformen zu erkennen und diese zu beleben. (Vgl. Kirche und Jugend. Lebenslagen, Begegnungsfelder, Perspektiven. Eine Handreichung des Rates der Evangelischen Kirche in Deutschland (EKD) Hrsg. vom Kirchenamt der EKD. 1. Auflage. Gütersloh: Gütersloher Verlagshaus 2010. S. 14.) Wie notwendig diese Kompetenzen allerdings für das Gemeinwohl sind, macht der Satz `Ihr seid das Salz der Erde´ meines Erachtens deutlich: Jedes Individuum ist als wertvoll und essenziell für das Ganze zu begreifen. Die Evangelische Kirche in Deutschland äußert sich hierzu folgendermaßen: Den demokratischen Staat begreifen wir als Angebot und Aufgabe für die politische Verantwortung aller Bürger und so auch für evangelische Christen. In der Demokratie haben sie den von Gott dem Staat gegebenen Auftrag wahrzunehmen und zu gestalten. (Leicht, Robert: Zur Rolle der Kirchen in der Politik. In. Evangelische Kirche in Deutschland (EKD). Stand 27.05.1998. URL: http://www.ekd.de/vortraege/leicht/kirchenpolitik.html) Um schließlich zu ermitteln, welche Faktoren die scheinbare Zurückhaltung der Jugendlichen begründen und wie sich der Religionsunterricht dieser Thematik annimmt, habe ich folgenden Forschungsweg gewählt, der hier allerdings nur skizziert werden soll: 1. Einleitung: Hier werden das Forschungsvorhaben und die Vorgehensweise der Arbeit dargelegt und begründet. 2. Theologischer Zugang Thematik unter Berücksichtigung des Status Quo: Skizzierung wichtiger theologischer Weltvorstellungen mit Bezugnahme auf die gegenwärtige Ausgestaltung von Staat und Kirche. 3. Herausforderung und Perspektive: Religionsunterricht und Politik: Wie lässt sich aktuelle Politik im evangelischen Religionsunterricht verorten? Analyse des Lehrplans und Befragung der religionspädagogischen Forschung. 4. Jugend – Religion – Politik: Dieses Kapitel wendet sich den Interessen der Heranwachsenden zu, dabei wird auch ihre religiöse und politische Entwicklung betrachtet. 5. Nachgefragt in der Sekundarstufe I – SchülerInnen sagen ihre Meinung: Empirische Erkundung in einer Realschule. Hier äußern Jugendliche der Jahrgangsstufe 10 ihre Meinung zum Thema. 6. Fazit: Die gewonnenen Erkenntnisse werden zusammengetragen und gegenübergestellt. Es erfolgt ein Ausblick.