24 resultados para gar
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Fotografie ist zu einem festen Bestandteil technisierter Kulturen geworden, zu so einem selbstverständlichen Segment unserer Gesellschaft, dass wir sie als solche oft gar nicht mehr wahrnehmen. Dabei haben die Bilder den Blick auf die Welt radikal verändert und neue Wirklichkeiten geschaffen. Die Durchdringung unserer Welt mit dieser visuellen Macht, erfordert die grundsätzliche Feststellung, dass fotografische Bilder nicht einfache Abbilder der Realität sind, sie dürfen nicht mit dieser verwechselt werden. Deshalb wird zunächst das Wesen der Fotografie thematisiert, um anschließend die Bildproduktion als zentrales Medium touristischer Aneignung zu illustrieren. Kernstück der Ausführungen bilden Reflexionen zu Motivationen und Funktionen des Fotografierens im Urlaub. An dieser Stelle findet dann eine Verknüpfung von Rassismus und Reisefotografie statt, wobei sich die geäußerten Denkmuster und beschriebenen Verhaltensweisen auf Touristen, die aus den westlichen Instudrienationen stammen und in die Länder des Südens reisen, beziehen. Die Ergebnisse werden mit empirisch gewonnenen Ausssagen von Urlaubern und mit Fotografien selbst belegt.
Resumo:
Die Dissertation befasst sich mit der Geschichte des Arbeitserziehungslagers (AEL) Breitenau, das 1940 von der Gestapostelle Kassel auf dem Gelände der Landesarbeitsanstalt Breitenau in Guxhagen gegründet wurde und bis zum Kriegsende bestand. Darüber hinaus wird auch der Frage nachgegangen, wie nach der NS-Zeit mit der Geschichte des Lagers, den Opfern und den Tätern umgegangen wurde. Die Dissertation ist in drei Teile gegliedert. Der erste Teil gibt einen Überblick über die Geschichte der Geheimen Staatspolizeistelle Kassel, der das Lager unterstand und die als zentrale Verfolgungsbehörde für den Regierungsbezirk Kassel zuständig war. Dabei wird vor allem aufgezeigt, wie die Gestapostelle Kassel entstanden ist, wie sie aufgebaut war und wer die Leiter und Mitarbeiter während des Zweiten Weltkrieges waren, die die Verfolgungsmaßnahmen organisierten und durchführten. Der zweite Teil der Dissertation befasst sich mit der eigentlichen Lagergeschichte. Breitenau war eines der ersten Arbeitserziehungslager überhaupt. Die Hauptfunktion bestand darin, ausländische Zwangsarbeiter und Zwangsarbeiterinnen, die sich dem Arbeitseinsatz widersetzt hatten, durch harte Bestrafung gefügig zu machen. Gleichzeitig wurden in das AEL aber auch deutsche und ausländische Gefangene eingewiesen, die aus politischen, rassischen, religiösen oder weltanschaulichen Gründen verhaftet worden waren. Das Lager unterstand zwar der Geheimen Staatspolizei Kassel, wurde aber von den Bediensteten der Landesarbeitsanstalt mit geleitet. Im Verlaufe des Zweiten Weltkrieges waren im AEL Breitenau etwa 8.300 überwiegend ausländische Schutzhaftgefangene inhaftiert, unter denen sich ca. 1.900 Frauen und 6.400 Männer befanden. Bei den Einweisungen wirkten neben der Gestapostelle Kassel und der Gestapostelle Weimar zahlreiche Orts- und Kreispolizeibehörden mit, wodurch ein flächendeckender Verfolgungsapparat entstand. Insgesamt lassen sich über 1.000 letzte Wohnorte von Gefangenen ermitteln. Die Haft- und Lebensbedingungen im Lager waren vor allem für die ausländischen Gefangenen besonders unmenschlich, und es gab mehrere Todesfälle. Nachweislich wurden mehr als 750 Gefangene in Konzentrationslager deportiert, was für viele den Tod bedeutete. Außerdem wurden mindestens 18 polnische Gefangene von Angehörigen der Gestapo Kassel erhängt und noch unmittelbar vor Kriegsende ein Massenmord an 28 Gefangenen verübt. Erst mit dem Einmarsch der amerikanischen Soldaten am Ostersamstag 1945 wurde das Arbeitserziehungslager Breitenau endgültig aufgelöst. Im dritten Teil der Dissertation wird der Frage des Umgangs mit dem damaligen Geschehen nachgegangen. Dabei lässt sich feststellen, dass die Täter und Mittäter von deutschen Spruchkammern und Gerichten gar nicht oder kaum bestraft wurden. Gleichzeitig wurden ihnen verschiedene Möglichkeiten geboten, sich in die Gesellschaft zu integrieren. Die ehemaligen Gefangenen hatten dagegen keinen Anspruch auf Entschädigung, und auch eine gesellschaftliche Würdigung wurde ihnen versagt. Erst seit den 90er Jahren trat hier eine Veränderung ein, die allerdings für viele Verfolgte zu spät kam. Die Geschichte des Arbeitserziehungslagers Breitenau war viele Jahre verdrängt worden. Das Gelände diente bis 1949 als Landesarbeitsanstalt, dann als geschlossenes Erziehungsheim, und seit 1974 besteht dort eine psychiatrische Einrichtung. Erst 1979 wurde durch ein Forschungsprojekt an der Gesamthochschule Kassel die NS-Geschichte „wiederentdeckt“ und 1984 die Gedenkstätte Breitenau eingerichtet, die als Gedenk- und Bildungsort an das damalige Geschehen erinnert.
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.
Resumo:
Erfolgskontrollen für Agrarumweltprogramme bezogen sich bisher meistens auf einzelne Flächen oder auf programmbezogene, großräumige Evaluationen. Es wurde jedoch kaum untersucht, wie sich die Maßnahmen auf die Entwicklung einzelner Naturräume auswirken. Auch gab es keine Studien, welche die Wechselwirkungen zwischen den Beweggründen der Landnutzer auf der ei-nen- sowie Landnutzung und Vegetation auf der anderen Seite interpretierten. Die Dissertation Wirkungen von Extensivierungs- und Vertragsnaturschutzprogrammen auf die Entwick-lung einer »gerade noch aktuellen Agrarlandschaft« hat diese Lücke geschlossen. Sie erklärt, welche Bedeutung die hessischen Programme HELP und HEKUL für den hohen Anteil naturschutzfachlich wertvollen Grünlands im Rommeroder Hügel-land westlich des Meißner haben. Untersuchungsgegenstand waren die Grünlandvegetation und die landwirtschaftlichen Betriebe mit ihren Menschen und deren Beweggründen. Diese Inhalte er-forderten eine Vorgehensweise, die sowohl sozialwissenschaftliche als auch naturwissenschaftliche Methoden einbindet, um Bezüge zwischen Betrieben und Grünlandvegetation zu er-kennen. Umfangreiche pflanzensoziologische Untersuchungen und Interviews der Betriebsleiter waren Grundlage für eine Schlagdatenbank und weitergehende Auswertungen. Die Interpretation vegetationskundlicher Erhebungen im Kontext betrieblicher Entscheidungen und Beweggründe erforderte es, althergebrachte Ansätze in neuer Form zu verknüpfen. Die Bewertung der Programmwirkungen stützte sich auf die Schlagdatenbank und auf vier Szena-rien zur zukünftigen Gebietsentwicklung bei unterschiedlichen Programmfortschreibungen. Zur Darstellung von Erhebungen und Ergebnissen entstand eine Vielzahl thematischer Karten. Der überdurchschnittlich hohe Anteil naturschutzfachlich bedeutsamer Grünlandtypen auf den Programmflächen und die Interpretation der Szenarien belegten eine hohe Wirksamkeit von HELP und HEKUL im Gebiet. Nicht nur auf den Vertragsnaturschutzflächen des HELP, sondern auch auf dem HEKUL-Grünland sind naturschutzfachlich bedeutende Vegetationstypen überproportional vertreten. Die vier Szenarien ließen erkennen, dass eine Beschränkung des HELP auf Schutzgebiete, eine Abschaffung der HEKUL-Grünlandextensivierung oder gar eine ersatzlose Strei-chung beider Programme zu erheblichen Verschlechterungen der naturschutzfachlichen Situation führen würde. Gleichzeitig war festzustellen, dass es ohne die landwirtschaftlich schwierigen natur-räumlichen Verhältnisse sowie eine eher großteilige Agrarstruktur mit überdurchschnittlich flächen-starken und wirtschaftlich stabilen Vollerwerbsbetrieben keine so deutlichen Programmwirkungen gegeben hätte. Auch die Tatsache, dass viele Landwirte eine intensive Landwirtschaft aus innerer Überzeugung ablehnen und mit einer erheblich geringeren Stickstoffintensität wirtschaften als es HEKUL verlangt, wirkte verstärkend. Die große Bedeutung individueller Beweggründe einzelner Betriebsleiter wurde auch in den engen Beziehungen einzelner Grünland-Pflanzengesellschaften zu bestimmten Betriebstypen und sogar einzelnen Höfen sichtbar, deren Beschreibung und Interpretation wichtige Erkenntnisse zu den so-zioökonomischen Voraussetzungen verschiedener Vegetationstypen lieferte. Für die zukünftige Entwicklung der hessischen Agrarumweltförderung empfiehlt die Dissertation eine Einführung und bevorzugte Anwendung ergebnisorientierter Honorierungsverfahren, eine bessere Berücksichtigung des gering gedüngten Grünlands über eine differenzierte Förderung sehr extensiver Düngeregime, eine stärkere Modularisierung des Gesamtprogramms und eine Durchführung aller Maßnahmen im Vertragsverfahren. Die betriebszweigbezogene Grünlandextensivierung sollte zukünftig in Kulissen angeboten werden, in denen ein verstärktes Wechseln von Betrieben in die Mindestpflege nach DirektZahlVerpflV zu erwarten ist.
Resumo:
Die vorliegende Arbeit liefert erstmals einen umfassenden Überblick über die molekulare Epidemiologie von Methicillin resistenten Staphylococcus aureus (MRSA) eines nordhessischen Krankenhauses inklusive seines Umfeldes und deren Entwicklung in einem Zeitraum von fünf Jahren. Von besonderer Bedeutung ist, dass die MRSA-Stämme hierfür nicht nur anhand ihrer SCCmec-Region (staphylococcal cassette chromosome) typisiert wurden, sondern eine weitergehende Charakterisierung auf Grund der Bestimmung des Vorkommens von Antibiotikaresistenz- und Toxingenen, sowie Plasmiden erfolgte. Dabei wurde ein neuer SCCmec-Typ entdeckt und charakterisiert und weitere noch unbekannte SCCmec-Elemente beschrieben. Bei der Charakterisierung der MRSA-Kollektive konnten bzgl. aller untersuchten Eigenschaften im Laufe der Zeit signifikante Veränderungen beobachtet werden. Am deutlichsten waren diese Unterschiede zwischen dem ältesten Kollektiv aus 1999 und allen nachfolgenden Kollektiven. Die Kollektive aus 2001, 2002, 2003 und 2004 zeigten untereinander größere Ähnlichkeiten, aber dennoch gleichzeitig eine tendenziell divergente Entwicklung einzelner Eigenschaften. Besonders auffallend war das dominante Auftreten von SCCmecIV mit 63-87% der Isolate eines Kollektivs ab 2001, gegenüber 16% in 1999. Weiterhin erfolgte eine markante Veränderung im Vorkommen einzelner Antibiotikaresistenzgene von 1999 bis 2004. So waren aacA-aphD und ermA bei MRSA aus 1999 mit 84% bzw. 90% deutlich häufiger als in allen Kollektiven der folgenden Jahre (aacA-aphD: max. 32%, ermA: max. 40%). Wohingegen ermC ein stets zunehmendes Vorkommen von 3% auf 67% über den Untersuchungszeitraum zeigte. Unkontinuierliches aber statistisch relevant vermehrtes Auftreten von tetM konnte bei Isolaten aus 1999 (40%) und 2004 (74%) nachgewiesen werden. Auch bei Toxingenen zeigten sich deutliche Unterschiede in der zeitlichen Verteilung. Ab 2001 zeigten alle Isolate wesentlich höhere Anteile an sec, seg und sei verglichen mit den MRSA aus 1999. So konnte sec im Kollektiv aus 1999 gar nicht nachgewiesen werden, in denen der Folgejahre mit 54-77%. Die Werte für seg und sei stiegen von 48% bzw. 41% in 1999 kontinuierlich auf über 90% in 2004. Die Häufigkeit von MRSA sowohl mit mehreren Resistenzgenen als auch die mit mehreren Toxingenen nahm im Laufe der Zeit zu und korrelierte mit dem Vorkommen von Plasmiden. Bezüglich seiner Korrelation mit den vorkommenden Plasmiden zeigte SCCmecIV im Erhebungszeitraum besonders deutlich eine Veränderung. So nahm über den Zeitraum der Beobachtung die Anzahl der Stämme die zusätzlich zu einem großen Plasmid ein weiteres kleines Plasmid besaßen signifikant zu. Auch beim Vergleich der SCCmec-Typen der MRSA-Isolate konnten Unterschiede bzgl. aller weiteren untersuchten Eigenschaften dargestellt werden. So zeigten z.B. alle SCCmecIIIA das sea-Gen, während dies bei allen anderen in der vorliegenden Arbeit untersuchten SCCmec-Typen nur vereinzelt vorkam. SCCmecII-Stämme wiesen sowohl die meisten Antibiotikaresistenz- als auch Toxingene auf. Es wurde ferner gezeigt, dass Stämme mit vielen Resistenzgenen auch eine hohe Anzahl Toxingene besaßen und dies im Zusammenhang mit einem erhöhten Plasmidgehalt stehen könnte. Aus den MRSA-Kollektiven isolierte Plasmide konnten aufgrund von Restriktionsanalysen als verwandt zu β-Laktamase-Plasmiden des Grundtyps pI524 und pI258 beschrieben werden. Der in vorliegender Arbeit gezeigte Zusammenhang zwischen der Anzahl von direct repeat units (dru) in der Hypervariablen Region (HVR) und dem SCCmec-Typ half den Unterschied zwischen SCCmecIV und SCCmecIVA, sowie die Sonderstellung des in vorliegender Arbeit erstmalig beschriebenen SCCmecIA/II darzustellen. Nicht alle Isolate konnten einem bekannten SCCmec-Typ zugeordnet werden, es handelt sich bei diesen Ausnahmen um weitere noch unbekannte und hier erstmalig beschriebene SCCmec-Typen. Aufgrund der vorliegenden Arbeit konnte ein neuer SCCmec-Typ definiert werden, namentlich der Typ SCCmecIA/II, der seit 1999 in der Region gehäuft vorkommt Die vorliegenden Untersuchungen zeigten somit, dass die Epidemiologie von MRSA der Region Nordhessen trotz bestehender Gemeinsamkeiten zur MRSA-Situation in ganz Deutschland auch Besonderheiten aufweist. Diese nun zu kennen kann einen Beitrag zur gezielten Verbesserung bisheriger Maßnahmen zur Ausbreitungskontrolle von MRSA in der nordhessischen Region leisten.
Resumo:
Fernsehen ist immer noch Medium Nummer eins der Kinder. An dieser Vorrangstellung ändern Computer, Internet oder Gameboy nur langsam etwas. So bleibt also die tägliche Frage, was, wann und wieviel die kleinen und großen Kinder sehen dürfen. Auch wenn Kinder normalerweise lieber zum typischen Kinderprogramm der verschiedenen Sender schalten, ist doch zu bedenken, was Fernsehen mit Kindern macht. Ist dann nicht der Ausschalter am Fernseher doch die beste Erziehungshilfe? Schöne Idee, jedoch zu einfach, denn Barrieren und Schutzmauern ersetzen nicht Erziehung. Viel sinnvoller ist es, nach Spuren des Fernsehens im Leben der Kinder Ausschau zu halten. Das schärft den Blick dafür, wie Kinder Fernseherlebnisse in ihre Spiele einbinden, welche Botschaften sie mit Hilfe von Fernsehzitaten geben, wann sie eines Zuhörers bedürfen, um ihre Fernseherlebnisse zu verarbeiten, wann sie Hilfe brauchen, um zu üppige Fernsehwünsche zu ordnen. Kindern zuzuschauen, ist der erste Schritt, um ihr Verhältnis zum Fernsehen zu verstehen. Dies unvoreingenommen zu tun, ist gar nicht so leicht, weil es eine Fülle widersprüchlicher Meinungen und Theorien dazu gibt.
Resumo:
Die Dissertation beschäftigt sich aus interdisziplinärer (musikwissenschaftlicher, literaturwissenschaftlicher und theologischer) Sicht mit den Biographien Brechts und Weills und ihrem bekanntesten gemeinsamen Werk, der Dreigroschenoper. Im ersten Teil werden anhand von Selbstäußerungen in Briefen und Tagebüchern die Biographien beider Künstler mit Blick auf Spuren von religiöser Biographie, Frömmigkeit und argumentativer Auseinandersetzung mit ihrer jeweiligen Heimatreligion – für Brecht das Christentum und für Weill das Judentum – untersucht. Die in der Forschung pauschal gehaltene These von einer intensiven religiösen Sozialisation beider Künstler ist zwar gerechtfertigt und vor allem für Brecht bekannt, stellt aber nur einen Ausgangspunkt für differenziertere Untersuchungen dar. Dazu gehört es religiöse Existenz als bedeutenden und künstlerisch wirksamen Bestandteil von Persönlichkeitsentwicklung zu verstehen. Religiöse Existenz darf nicht, wie es fast durchgängig in der Forschung zu Brecht und Weill geschieht, auf eine affirmative Grundhaltung begrenzt werden, auch dürfen nicht christliche und jüdische Sozialisation gleichgesetzt werden. Daher sind auch die in der Arbeit gewonnenen exemplarischen Einblicke in Glaubensvorstellungen und Lebenspraxis von Juden und Christen im ausgehenden Kaiserreich und in der Weimarer Republik von besonderer Bedeutung. Auch reicht die bloße Feststellung einer intensiven religiösen Sozialisation nicht aus um wirklich zu beschreiben, was sie jeweils – etwa die Schabbatpraxis im Hause Weill oder Brechts Zweifel am Christentum während der Krankheit seines Vaters – bedeuten und bewirken kann. Mit der in der Dissertation vorgenommenen differenzierten Sichtung von Biographie wird weder die „Moderation“ der eigenen Biographie durch die Künstler außer Acht gelassen noch das künstlerische Werk der Biographie untergeordnet. Es wird vielmehr in der Verknüpfung der mehrdimensionalen Bezugssysteme das geschichtliche und damit auch das biographische Werden eines Werkes gleichzeitig als Charakteristikum seiner Ästhetik verstanden. Für die religiöse Dimension der Dreigroschenoper gilt ähnliches wie für die Sicht auf die religiösen Sozialisationen. Einige der offensichtlichen Anspielungen auf religiöse Kontexte gelten als bekannt. Dabei werden aber Tiefendimensionen und Ambivalenzen vernachlässigt, welche bei der Verwendung der zumeist biblischen Spuren mitschwingen und die auch für die Künstler mitschwingen konnten (Buch Rut, Passion Jesu etc.). An diesem Punkt setzt die Untersuchung im zweiten Teil der Arbeit ein, welche die versteckten, verdeckten oder nur oberflächlich untersuchten Spuren religiöser Konnotation in der Dreigroschenoper ermittelt und wieder verständlich macht. Brecht war nicht Theologe und schon gar nicht Exeget war, er war aber als Literat und als christlich sozialisierter Künstler in der Lage, kontextuelle Zusammenhänge, innerbiblische Verweise und Leerstellen biblischer Texte zu erkennen. Daher ist es für die Interpretation der Dreigroschenoper auch wesentlich, biblische Hintergründe und ausgewählte theologische Erkenntnisse heranzuziehen. Durch den Rückgriff auf Biblisches und damit auf jüdische und christliche Tradition wird nicht nur die Komplexität der Dreigroschenoper verdeutlicht, sondern gleichsam rückwirkend die Komplexität biblischer Theologie sichtbar. Der Komponist darf bei diesem künstlerischen Verarbeitungsprozess religiöser Kontexte nicht verdrängt werden. Die Frage nach religiös semantisierbarer Musik ist trotz aller Schwierigkeiten notwendig. Der Blick auf Weills Biographie, sein Aufwachsen im Hause eines jüdischen Kantors, seine Kenntnis der Synagogalmusik, seine künstlerische Verbundenheit mit Gustav Mahler, seine Kenntnis von Orgelmusik, Chorälen und den bachschen Passion und seine Selbstreflexion über sich als Künstler, der Jude war, fordert in dieser Hinsicht eine differenzierte und funktionale Sicht auf religiöse Semantik in der Musik. In der Dreigroschenoper spiegeln sich Säkularisierungsprozesse wider, doch bleibt trotz dieser Prozesse ein Bewusstsein für die religiösen Traditions- und Erklärungsmuster erhalten. Dieses gilt es wieder zu erschließen, da es untrennbar zum Werk, zur Werkästhetik und damit zu seinem Verständnis gehört. Die Dreigroschenoper verdeutlicht darüber hinaus, dass die religiöse Dimension noch in der Distanzierung bedeutsam bleibt. Auch daran wird erkennbar, wie sehr eine Gesellschaft von Voraussetzungen lebt, die sie nicht selbst hergestellt hat. Die Dreigroschenoper kann somit heute auch zu einem Lehrstück für kulturelle Codes werden.
Resumo:
Im Rahmen der Fallstudie Harz sollte an der Schnittstelle zwischen Grundlagenforschung und angewandter Forschung ein Beitrag zur Klärung der Frage geleistet werden, inwieweit zwei Zuläufe der Sösetalsperre im Westharz versauert bzw. versauerungsgefährdet sind; aus diesem Stausee wird Trinkwasser für mehrere Gemeinden in Norddeutschland gewonnen. Die Belastung des fast vollständig bewaldeten Einzugsgebiets der Sösetalsperre mit luftbürtigen Schadstoffen (Saurer Regen) zählte zu den höchsten in Mitteleuropa. An jeweils drei Untersuchungsstellen der beiden Bäche Alte Riefensbeek (R1 bis R3) und Große Söse (S1 bis S3) wurden zwischen März 1987 und November 1988 Proben aus Moospolstern und dem hyporheischen Interstitial entnommen und physikalisch, chemisch und biologisch untersucht. Ergänzend wurden Wasserproben zwischen März 1986 und Oktober 1991 sowie vom April 1998 ebenso wie qualitative Fänge von Makroinvertebraten zwischen November 1986 und Juli 1990 sowie vom April 1998 ausgewertet. Die Analyse der tierischen Besiedlung der Moos- und Interstitialproben beschränkte sich auf die taxonomischen Gruppen Turbellaria (Strudelwürmer), Mollusca (Weichtiere), Amphipoda (Flohkrebse), Ephemeroptera (Eintagsfliegen), Plecoptera (Steinfliegen), Heteroptera (Wanzen), Megaloptera (Schlammfliegen), Coleoptera (Käfer), Trichoptera (Köcherfliegen) und Diptera (Zweiflügler). Der Grundsatz, daß normalverteilte und nicht normalverteilte Daten statistisch unterschiedlich behandelt werden müssen, wurde konsequent angewandt. Am Beispiel der Choriotopstruktur wurde gezeigt, daß die Auswahl des Analyseverfahrens das Ergebnis der ökologischen Interpretation multivariater statistischer Auswertung beeinflußt. Die Daten der Korngrößen-Verteilung wurden vergleichend einer univariaten und einer multivariaten statistischen Analyse unterworfen. Mit dem univariaten Verfahren wurden die Gradienten der ökologisch relevanten Korngrößen-Parameter eher erkannt als mit dem multivariaten Verfahren. Die Auswirkungen von Gewässerversauerung sowie anderer Umweltfaktoren (insgesamt 42 Faktoren) auf die Lebensgemeinschaften wurden anhand der Parameter Artenzahl, Besiedlungsdichte, Körpergröße und Biomasse untersucht. Abundanz, Biomasse und Körpergröße sowie die Umweltfaktoren wurden auf einem horizontalen Gradienten, d.h. im Längslauf der Bäche, und auf einem vertikalen Gradienten, d.h. fließende Welle / Bryorheon / Benthon versus Hyporheon, untersucht. Es wurde ein terminologisches System für die Kompartimente in der Fließgewässer-Aue vorgeschlagen, das in sich einheitlich ist. Es wurde ein neuer Moos-Vitalitätsindex für die Moospolster vorgestellt. Es wurden Bestimmungsschlüssel für die Larven der Chloroperlidae (Steinfliegen-Familie) und der Empididae (Tanzfliegen) in den beiden Harzbächen entwickelt. Die untersuchten Bachstrecken waren frei von Abwasserbelastung. An zwei Stellen wurde Wasser für einen Forellenteich ausgeleitet. Abgesehen von zwei meterhohen Abstürzen in der Großen Söse waren wasserbauliche Veränderungen ohne große Bedeutung. Das Abfluß-Regime war insofern nicht mehr natürlich, als beide Bäche in das System der bergbaulichen Bewässerungsgräben des Oberharzes eingebunden sind. Die Söse hatte ein F-nivopluviales Abfluß-Regime, der abflußreichste Doppelmonat war der März / April, die Unregelmäßigkeit des Abfluß-Regimes war sehr hoch, die Vorhersagbarkeit sehr niedrig, die monatlichen Abfluß-Maxima wiesen eine sehr geringe Konstanz auf. Der Zeitraum der biologischen Probenahme wurde von überdurchschnittlich vielen Tagen mit mäßig erhöhten Abflüssen geprägt, sehr große Hochwasser-Wellen fehlten aber. Die Abfluß-Dynamik wurde statistisch beschrieben. Das hydraulische Regime wurde anhand der Meßgrößen Fließgeschwindigkeit, Fließkraft und FROUDE-Zahl dargestellt. Der Zusammenhang zwischen Abfluß und Fließgeschwindigkeit auf der einen Seite und der Korngrößen-Verteilung auf der anderen Seite wurde statistisch untersucht, ebenfalls zwischen dem Abfluß und dem Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel sowie dem Wasserchemismus. In den Phasen ohne Hochwasser hatte das Hyporheal die Funktion einer Senke für Feinstkörner. Das Bachbett der Alten Riefensbeek war stabiler als das der Großen Söse. Insgesamt gesehen war das hyporheische Sediment in den quellnahen Abschnitten grobkörniger und auf den quellfernen Strecken feinkörniger. Der prozentuale Anteil der Feinstkörner im Hyporheal und Benthal nahm aber im Längslauf der Bäche ab. Dies ist ungewöhnlich, konnte aber nicht plausibel mit geologischen und hydrologischen Meßgrößen erklärt werden. Beide Bäche waren sommerkalt. Der Einfluß der Wassertemperatur auf die Larvalentwicklung wurde beispielhaft an den Taxa Baetis spp. und Leuctra gr. inermis untersucht. Es gab eine Tendenz, daß der Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel vom Benthal in das Hyporheal anstieg. Dies war ein weiterer Hinweis darauf, daß das Hyporheal die Funktion einer Senke und Vorratskammer für Nährstoffe hat. Der Zusammenhang zwischen partikulärer und gelöster Kohlenstoff-Fraktion wurde diskutiert. Im Hyporheon war die Nitrifikation nicht stärker als in der fließenden Welle. Es gab Hinweise, daß die sauren pH-Werte in der Großen Söse die Nitrifikation hemmten. Die Valenzen der Moos- und Tier-Taxa bezüglich Fließgeschwindigkeit, pH-Wert, Alkalinität sowie der Gehalte von Sauerstoff, Calcium, Magnesium, Kalium und Natrium wurden zusammengestellt. Das hyporheische Sediment war sehr grob und hatte eine hohe Porosität. Der Austausch zwischen fließender Welle und hyporheischem Wasser konnte deshalb sehr schnell erfolgen, es gab keine intergranulare Sprungschicht, die physikalischen und chemischen Tiefengradienten waren in den meisten Fällen gar nicht ausgeprägt oder nur sehr flach. Die Wassertemperatur des Freiwassers unterschied sich nicht signifikant von derjenigen im hyporheischen Wasser. Es gab -- von wenigen Ausnahmen bei pH-Wert, Leitfähigkeit und Sauerstoffgehalt abgesehen -- keine signifikanten Unterschiede zwischen dem Wasserchemismus der fließenden Welle und dem des Hyporheals. Die physikalischen und chemischen Voraussetzungen für die Refugialfunktion des Hyporheons waren deshalb für versauerungsempfindliche Taxa nicht gegeben. In der Tiefenverteilung der untersuchten Tiergruppen im Hyporheal lag das Maximum der Abundanz bzw. Biomasse häufiger in 10 cm als in 30 cm Tiefe. Daraus läßt sich aber keine allgemeine Gesetzmäßigkeit ableiten. Es wurde durchgehend die Definition angewendet, daß die Gewässerversauerung durch den Verlust an Pufferkapazität charakterisiert ist. Saure Gewässer können, müssen aber nicht versauert sein; versauerte Gewässer können, müssen aber nicht saures Wasser haben. Maßstab für das Pufferungsvermögen eines Gewässers ist nicht der pH-Wert, sondern sind die Alkalinität und andere chemische Versauerungsparameter. Der pH-Wert war auch operativ nicht als Indikator für Gewässerversauerung anwendbar. Die chemische Qualität des Bachwassers der Großen Söse entsprach aufgrund der Versauerung nicht den umweltrechtlichen Vorgaben bezüglich der Parameter pH-Wert, Aluminium, Eisen und Mangan, bzgl. Zink galt dies nur an S1. In der Alten Riefensbeek genügte das Hyporheal-Wasser in 30 cm Tiefe an R2 bzgl. des Sauerstoff-Gehalts nicht den umweltrechtlichen Anforderungen. Nur im Freiwasser an R1 genügten die Ammonium-Werte den Vorgaben der EG-Fischgewässer-Richtlinie, der Grenzwert wurde an allen anderen Meßstellen und Entnahmetiefen überschritten. Das BSB-Regime in allen Entnahmetiefen an R2, im Freiwasser an R3 und S1, im Hyporheal an R1 sowie in 30 cm Tiefe an R3 genügte nicht den Anforderungen der Fischgewässer-Richtlinie. Der Grenzwert für Gesamt-Phosphor wurde an S3 überschritten. In der Großen Söse war der Aluminium-Gehalt so hoch, daß anorganisches und organisches Aluminium unterschieden werden konnten. Besonders hohe Gehalte an toxischem anorganischen Aluminium wurden an Tagen mit Spitzen-Abflüssen und Versauerungsschüben gemessen. Erst die Ermittlung verschiedener chemischer Versauerungsparameter zeigte, daß auch die alkalischen Probestellen R2 und R3 mindestens versauerungsempfindlich waren. Die Messung bzw. Berechnung von chemischen Versauerungsparametern sollte deshalb zum Routineprogramm bei der Untersuchung von Gewässerversauerung gehören. Zu Beginn des Untersuchungsprogramms war angenommen worden, daß die mittleren und unteren Abschnitte der Alten Riefensbeek unversauert sind. Dieser Ansatz des Untersuchungsprogramms, einen unversauerten Referenzbach (Alte Riefensbeek) mit einem versauerten Bach (Große Söse) zu vergleichen, mußte nach der Berechnung von chemischen Versauerungsindikatoren sowie der Analyse der Abundanz- und Biomasse-Werte modifiziert werden. Es gab einen Versauerungsgradienten entlang der Probestellen: R1 (unversauert) R2 und R3 (versauerungsempfindlich bis episodisch leicht versauert) S2 und S3 (dauerhaft versauert) S1 (dauerhaft stark versauert). An S1 war das Hydrogencarbonat-Puffersystem vollständig, an S2 und S3 zeitweise ausgefallen. Die Versauerungslage an R2 und R3 war also schlechter als vorausgesehen. Unterschiede im Versauerungsgrad zwischen den Meßstellen waren nicht so sehr in unterschiedlichen Eintragsraten von versauernden Stoffen aus der Luft begründet, sondern in unterschiedlichen Grundgesteinen mit unterschiedlichem Puffervermögen. Der Anteil der verschiedenen sauren Anionen an der Versauerung wurde untersucht, die chemischen Versauerungsmechanismen wurden mit Hilfe von Ionenbilanzen und verschiedenen Versauerungsquotienten analysiert. Die beiden untersuchten Bäche waren von anthropogener Versauerung betroffen. Dabei spielte die Schwefel-Deposition (Sulfat) eine größere Rolle als die Stickstoff-Deposition (Nitrat). Die Probestelle S1 war immer schon in unbekanntem Maß natürlich sauer. Dieser natürlich saure Zustand wurde von der hinzugekommenen anthropogenen Versauerung bei weitem überragt. Die wenigen gewässerökologischen Daten, die im Wassereinzugsgebiet der Söse vor 1986 gewonnen wurden, deuten darauf hin, daß die Versauerung in den 70er und in der ersten Hälfte der 80er Jahre vom Boden und Gestein in die Bäche durchgeschlagen war. Dieser Versauerungsprozeß begann vermutlich vor 1973 in den Quellen auf dem Acker-Bruchberg und bewegte sich im Laufe der Jahre immer weiter talwärts in Richtung Trinkwasser-Talsperre. Der Mangel an (historischen) freilandökologischen Grundlagendaten war nicht nur im Untersuchungsgebiet, sondern ist allgemein in der Versauerungsforschung ein Problem. Wenn sich das Vorkommen von nah verwandten Arten (weitgehend) ausschließt, kann dies an der Versauerung liegen, z.B. war die Alte Riefensbeek ein Gammarus-Bach, die Große Söse ein Niphargus-Bach; dieses muß aber nicht an der Versauerung liegen, z.B. fehlte Habroleptoides confusa im Hyporheos an R3, Habrophlebia lauta hatte dagegen ihr Abundanz- und Biomasse-Maximum an R3. Zugleich lag das Maximum des prozentualen Anteils von Grobsand an R3, eine mögliche Ursache für diese interspezifische Konkurrenz. Die biologische Indikation von Gewässerversauerung mit Hilfe der Säurezustandsklassen funktionierte nicht in den beiden Harzbächen. Es wurde deshalb ein biologischer Versauerungsindex vorgeschlagen; dieser wurde nicht am pH-Wert kalibriert, sondern an der chemischen Versauerungslage, gekennzeichnet durch die Alkalinität und andere chemische Meßgrößen der Versauerung. Dafür wurden aufgrund der qualitativen und quantitativen Daten die häufigeren Taxa in die vier Klassen deutlich versauerungsempfindlich, mäßig versauerungsempfindlich, mäßig versauerungstolerant und deutlich versauerungstolerant eingeteilt. Es reicht nicht aus, die biologischen Folgen von Gewässerversauerung sowie Veränderungen in der Nährstoff-Verfügbarkeit und im sonstigen Wasserchemismus nur anhand der Artenzahl oder des Artenspektrums abzuschätzen. Vielmehr müssen quantitative Methoden wie die Ermittlung der Abundanzen angewandt werden, um anthropogene und natürliche Störungen des Ökosystems zu erfassen. Es wurde eine Strategie für die behördliche Gewässergüteüberwachung von Bachoberläufen vorgeschlagen, die flächendeckend die Versauerungsgefährdung erfassen kann. Die Auswirkungen der zeitlichen Dynamik des Versauerungschemismus wurden am Beispiel des versauerungsempfindlichen Taxons Baetis spp. (Eintagsfliegen) dargestellt. An S2 und S3 kam es zu starken Versauerungsschüben. Baetis konnte sich nicht ganzjährig halten, sondern nur in versauerungsarmen Phasen im Sommer und im Herbst; es gab einen Besiedlungskreislauf aus Ausrottungs- und Wiederbesiedlungsphasen. Die temporäre Population von Baetis an S2 und S3 bestand nur aus ersten Larvenstadien. Die Probestellen wurden auf horizontalen Gradienten der Umweltfaktoren angeordnet. Bei einigen Parametern gab es keinen Gradienten (z.B. Sauerstoff-Gehalt), bei anderen Parametern waren die Meßstellen auf sehr flachen Gradienten angeordnet (z.B. C:N-Quotient der Feinstkörner), bei den restlichen Meßgrößen waren die Gradienten sehr deutlich (z.B. Alkalinität). Bei den Längsgradienten von Abundanz und Biomasse waren alle Möglichkeiten vertreten: Zunahme (z.B. Leuctra pseudosignifera), Abnahme (z.B. Gammarus pulex), Maximum an der mittleren Probestelle (z.B. Leuctra pseudocingulata) und kein signifikanter Trend (z.B. Nemoura spp.). Abundanz und Biomasse zahlreicher taxonomischer Einheiten hatten ihr Maximum im Längslauf an den quellnächsten Probestellen R1 und S1, z.B. Protonemura spp. und Plectrocnemia spp. Die Lebensgemeinschaften an R1 und S1 waren allerdings völlig unterschiedlich zusammengesetzt. Die häufig vertretene Annahme, versauerte Gewässer seien biologisch tot, ist falsch. Unter Anwendung des 3. biozönotischen Grundprinzips wurde das Maximum von Abundanz und Biomasse in den quellnahen Abschnitten mit dem eustatistischen (stabilen) Regime von Wassertemperatur, Abfluß und Protonen-Gehalt, in der Alten Riefensbeek auch von Alkalinität und ALMER-Relation erklärt. Aufgrund der natürlichen und anthropogenen Störungen war im Längslauf der untersuchten Bäche keine natürliche biozönotische Gliederung des Artenbestands erkennbar. Die Korrelationsberechnungen zwischen den Umweltfaktoren und der Taxazahl ergaben, daß in erster Linie versauerungsrelevante Parameter -- Gehalte saurer Anionen, basischer Kationen und von Metallen, Alkalinität usw. -- die höchsten Korrelationskoeffizienten mit der Taxa-Zahl hatten; unter den natürlichen Meßgrößen zählten nur die Gehalte von DOC und TIC sowie der Anteil der Sande zu der Gruppe mit den höchsten Korrelationskoeffizienten. Die Korrelationsberechnungen zwischen den Umweltfaktoren und den Abundanzen ergab dagegen, daß die quantitative Zusammensetzung der Lebensgemeinschaft nicht nur durch die anthropogene Gewässerversauerung, sondern mindestens genauso durch einige natürliche Meßgrößen beeinflußt wurde. Es gab in den Harzbächen keinen ökologischen Superfaktor, der die quantitative Zusammensetzung der Lebensgemeinschaft überwiegend bestimmte. Auch die Meßgrößen der anthropogenen Gewässerversauerung waren nicht solch ein Superfaktor. Einen ähnlich hohen Einfluß auf die quantitative Zusammensetzung der Lebensgemeinschaft hatten die geologisch bestimmten Umweltfaktoren Leitfähigkeit und TIC-Gehalt, der von der Landnutzung bestimmte DOC-Gehalt sowie der Chlorid-Gehalt, der geologisch, möglicherweise aber auch durch den Eintrag von Straßensalz bestimmt wird. Die Mischung von anthropogenen und natürlichen Faktoren wurde in einem Modell der Wirkung von abiotischen Faktoren auf Bryorheos und Hyporheos dargestellt. Als Beispiel für die zeitliche Nutzung ökologischer Nischen wurde die Verteilung der Larven und Adulten der Dryopidae (Hakenkäfer) im Hyporheos und Bryorheos untersucht. Die Larven wurden vorzugsweise im Hyporheon, die Adulten im Bryorheon angetroffen. Die untersuchten Taxa wurden in die Varianten bryorheobiont, bryorheophil, bryorheotolerant, bryorheoxen und bryorheophob bzw. hyporheobiont, hyporheophil, hyporheotolerant, hyporheoxen und hyporheophob eingeteilt, um ihre räumliche Nutzung ökologischer Nischen zu beschreiben. Die gängige Lehrmeinung, daß das Hyporheon die Kinderstube benthaler Makroinvertebraten ist, konnte für zahlreiche Taxa bestätigt werden (z.B. Habrophlebia lauta). Für die bryorheophilen Taxa (z.B. Gammarus pulex und Baetis spp.) trifft diese Lehrmeinung in den beiden Harzbächen nicht zu. Vielmehr übernimmt das Bryorheon die Funktion einer Kinderstube. Die Larven von Plectrocnemia conspersa / geniculata sowie von Baetis spp. und Amphinemura spp. / Protonemura spp. neben Gammarus pulex zeigten eine Habitatbindung, die erstgenannte Gattung an das Hyporheal, die letztgenannten 3 Taxa an untergetauchte Moospolster (Bryorheal). Die Idee von der Funktion des Hyporheals als Kinderstube der Larven und Jungtiere, als Schutzraum gegen die Verdriftung durch Strömung und vor Fraßdruck durch Räuber sowie als Ort hohen Nahrungsangebots mußte für die letztgenannten 3 Taxa abgelehnt werden. Für sie übernahm das Bryorheal diese Aufgaben. Zwar waren die beiden Bäche oligotroph und die Nahrungsqualität der Feinstkörner im Hyporheal war niedrig. Die Abundanz- und Biomasse-Werte im Bryorheos und Hyporheos gehörten aber zu den weltweit höchsten. Es wurde das Paradoxon diskutiert, daß im Hyporheon der beiden Bäche Diatomeen-Rasen gefunden wurden, obwohl das Hyporheon lichtlos sein soll. Das Hyporheon wurde als ein Ökoton zwischen Benthon / Rheon und Stygon angesehen. Es wurden vier Haupttypen des Hyporheons beschrieben. Wegen des sehr unterschiedlichen Charakters des Hyporheons in verschiedenen Fließgewässern gibt es keinen einheitlichen Satz von abiotischen und biotischen Faktoren, mit denen das Hyporheon vom Benthon und Stygon abgegrenzt werden kann. In den beiden Harzbächen ähnelte das Hyporheon mehr dem Benthon als dem Stygon. Es konnte nicht anhand der chemischen Meßgrößen vom Benthon abgegrenzt werden, sondern anhand der physikalischen Meßgrößen Trübung und der Anteile von Feinsand und Schluffe/Tone sowie anhand der biologischen Parameter Summen-Abundanz und Summen-Biomasse. Aus der Typologie des Hyporheons folgt, daß ein bestimmtes Hyporheon nicht alle in der Literatur beschriebenen Funktionen innerhalb der Fließgewässer-Aue übernehmen kann. Es wurde ein Schema entwickelt, mit dem sich die optimale Liste der Parameter für die Untersuchung eines bestimmten Hyporheons auswählen läßt. Der Tendenz in der Fließgewässer-Ökologie, immer neue Konzepte zu entwickeln, die allgemeingültig sein sollen, wurde das Konzept vom individuellen Charakter von Fließgewässer-Ökosystemen entgegengestellt.
Resumo:
Kunst und Wissenschaft - ein unüberbrückbarer Gegensatz, gar Widerspruch oder ein sich befruchtendes Verhältnis? Beide haben sich im laufe der letzten Jahrhunderte immer weiter auseinanderentwickelt. Es scheint sich um weitgehend voneinander unabhängige und fast gänzlich voneinander geschiedene Bereiche zu handeln, die nach je eigenen, nicht ineinander überführbaren Regeln und Prinzipien funktionieren. Zählt in der Kunst Kreativität, Intuition und Subjektivität, so ist Wissenschaft traditionell durch andere Tugenden beherrscht: Der Erkenntnisprozeß soll geregelt, möglichst unter Ausschluß von subjektiver Willkür und vermittels des disziplinierten Einsatzes einer objektiven Vernunft vonstatten gehen. Wie kann sich Psychotherapie, wie die rationale Wissenschaft ein Kind der Neuzeit, die aber auch und andererseits über eine Tradition verfügt, die sie in die Nähe einer Heil"kunst" bringt, innerhalb dieses (Un-)Verhältnisses situieren? Ist sie ganz dem Kanon wissenschaftlicher Verfahren zuzuschlagen, wie es die Mehrheit der Forscher und auch einige Praktiker wollen? Oder kommt sie in die Nähe eines poetischen und ästhetischen Tuns, und bringen im Behandlungsprozeß zwei Menschen nicht durchaus kunstvoll eine neue Wirklichkeit hervor, die einer Novelle oder einem Roman gleicht? Diesen Fragen wollen wir im folgenden nachgehen. Wir werden vor allem bei Freud nachschlagen, der vor etwa 100 Jahren die Psychotherapie begründet hat, und wir werden die spannungsreiche und zerrissene Geschichte der Psychotherapie nach Freud schlaglichthaft nachvollziehen. Es liegt bei diesem Thema nahe, sowohl die wissenschaftliche Psychotherapie als auch kreative Prozesse zu untersuchen, die nicht nur in der künstlerischen Produktion eine Rolle spielen, sondern sich eben auch auf therapeutisches Handeln anwenden und übertragen lassen. Wenn es denn wahr ist, daß Kunst und Wissenschaft sich im Feld der Psychotherapie berühren, so wird der Gegensatz zwischen ihnen vielleicht nicht mehr so kraß ausfallen, und es werden Übergänge möglich. Wenn Wissenschaft sich von Kunst affizieren läßt, so wird sie sich erweitern und, was nicht unwesentlich ist, nicht nur darauf achten, daß ihre Erkenntnisse "wahr", sondern auch schön sind.
Resumo:
Worin genau liegen Möglichkeiten und Faszination des Films im Unterricht? Wie vermitteln Filme Wissenswertes, wann sollte man einen Film im Unterricht zeigen und wann ist eine andere Methode zu bevorzugen? Die meisten Schüler erinnern sich nur daran, dass Filme vor Weihnachten oder den Ferien gezeigt wurden um die letzte(n) Stunde(n) zu überbrücken. Doch im Medium Film steckt viel größeres Potenzial. Schüler können nicht nur Rezipienten von Unterrichtsfilmen sein, mit einfachen technischen Mitteln können sie auch zum Produzenten kleiner Unterrichtsfilme und Dokumentationen werden. Um mit Filmen zu arbeiten oder sogar Filme mit Schülern zu erstellen, bedarf es bei der Lehrperson ebenso wie den Schülern besonderer Fähigkeiten. Trotz all dieser Anforderungen übt der Film, ob nun Spiel- oder Lehrfilm, immer einen ganz besonderen Reiz auf Schüler aus. Doch Film einlegen, anschalten und die Bildungsverantwortung dem Film überlassen, funktioniert in keinem Unterricht. Vielmehr ist es so, dass durch den Film verschiedenste Anforderungen im Vorfeld an die Lehrperson und später an den Schüler gestellt werden. Was also muss der Lehrer und später der Schüler beherrschen um mit Filmen im Unterricht produktiv arbeiten zu können? An dieser Stelle setzen insbesondere die Bildungsstandards an, deren Fokus auf der Vermittlung von Kompetenzen liegt, da gerade auch das Erlernen von Medienkompetenzen für einen späteren erfolgreichen Einstieg in das Berufsleben immer wichtiger wird.Die vorgelegte wissenschaftliche Hausarbeit gliedert sich inhaltlich in zwei Teile. Zielsetzung des Hauptteils der wissenschaftlichen Hausarbeit ist es, eine thematisch umfassende Zusammenstellung zum Thema Filme im Biologieunterricht zu erstellen. Ausgehend davon, dass das Thema „Filme im Biologieunterricht“ im Studium gar nicht oder nur am Rand behandelt wird und dass die einschlägig bekannten Fachdidaktiken dieser Thematik selten mehr als ein bis zwei Seiten im Lehrbuch widmen (vgl. Berck 2005 S.148), soll eine Übersicht des momentanen Forschungsstands gegeben werden. Dazu gehört eine Kategorisierung (biologischer) Lehr- und Spielfilme, eine Auseinandersetzung mit den verschiedenen Abspielmedien, ein Überblick über Zeitpunkt und Häufigkeit des Filmeinsatzes sowie die umfassende Darstellung der benötigten Arbeitsweisen und Einsatzmöglichkeiten. Im zweiten Teil der wissenschaftlichen Hausarbeit soll eine beispielhafte Unterrichtseinheit (Projekteinheit) geplant und vorgestellt werden, die Möglichkeiten aufzeigen soll, wie Schüler an das Thema Film herangeführt werden können und wie sie mit dem für sie alltäglichen Gebrauchsgegenstand Handy, Filme und Dokumentationen für den Unterricht gestalten können.
Resumo:
Für die cAMP-abhängige Proteinkinase (Proteinkinase A, PKA) in Drosophila melanogaster sind zwei regulatorische Untereinheiten (R1 und R2) und drei katalytische Untereinheiten (C1, C2 und C3) beschrieben. Außerdem gibt es eine weitere mögliche katalytische Untereinheit mit einer auffälligen Ähnlichkeit zu C2, dementsprechend C2-like genannt. Für R2, C2 und C2-like konnte bereits gezeigt werden, dass sie im Hodengewebe synthetisiert werden. Die Expression der verbleibenden PKA-Untereinheiten im Hodengewebe wurde in dieser Arbeit mit Hilfe von RT-PCR, Northern-Hybridisierungen, GFP-Reporter- bzw. GFP-Fusionskonstrukten untersucht. So konnte gezeigt werden, dass alle PKA-Untereinheiten im Hoden exprimiert werden. Dabei wird von jeder Untereinheit mindestens eine Isoform in den Keimzellen synthetisiert. R2 und C1 treten außerdem in den die Keimzellen umschließenden Zystenzellen auf, wobei R2 während der gesamten Spermatogenese exprimiert wird, C1 jedoch nur am Ende des Prozesses während des Stadiums der elongierten Spermatiden. In BRET-Analysen sind die beiden Untereinheiten in der Lage, miteinander zu interagieren. Somit könnten sie zusammen eine Funktion in den Zystenzellen vermitteln, die während der Differenzierungsphase stattfindet. Die katalytischen Untereinheiten C2, C2-like und zwei Isoformen von C3 (B und B') werden keimzellspezifisch exprimiert. Die BRET-Analysen lassen darauf schließen, dass C2 und C3 B’ möglicherweise keine funktionellen PKA-Untereinheiten sind. Auch der Versuch, durch Antisense- und RNAi-Konstrukte einen mutanten Phänotyp zu erzeugen, schlug fehl. Das könnte ein Hinweis darauf sein, dass die beiden Untereinheiten C2 und C3 B’ gar keine oder zumindest keine essentielle Funktion während der Spermatogenese haben. Das C2-like as-Konstrukt führte hingegen zu einem starken Phänotyp. Schon eine geringe Reduktion der endogenen c2-like-mRNA führte zu einer starken Beeinträchtigung der männlichen Fertilität. Die elongierten Spermatiden zeigten einen Defekt in der Kernmorphologie und waren nicht in der Lage, Individualisierungskomplexe auszubilden. Dementsprechend fand keine Individualisierung statt und es konnten keine reifen Spermien in die Samenblase entlassen werden. Der mutante Phänotyp weist darauf hin, dass C2-like an mehreren Prozessen während der Keimzelldifferenzierung beteiligt ist. Gao et al. veröffentlichten 2008 Listen mit potentiellen PKA-Substraten für alle bekannten katalytischen Untereinheiten verschiedener Organismen. Zwei Substrat-Kandidaten für C2-like sind die testisspezifischen Serin/Threonin-Kinasen (TSSK) CG9222 und CG14305. Beide Proteine werden exklusiv im Hoden exprimiert. CG9222-GFP lokalisierte in die Individualisierungskomplexe (ICs) elongierter Spermatiden. Das entsprechende RNAi-Konstrukt zeigte allerdings keinen Effekt auf den Zusammenbau der ICs. Dagegen zeigte CG14305-GFP keine subzelluläre Lokalisierung, sondern war cytoplasmatisch über die gesamten Spermatiden verteilt. Das entsprechende RNAi-Konstrukt führte aber dazu, dass keine ICs ausgebildet werden. Beide Proteine spielen dementsprechend eine Rolle während der Individualisierung. Dies ist in Übereinstimmung mit dem Phänotyp der C2-like as-mutanten Männchen. So ist es vorstellbar, dass CG9222 und CG14305 von C2-like phosphoryliert werden müssen, um ihre Funktion während der Individualisierung der Spermatiden erfüllen zu können. Ein direkter Nachweis, dass C2-like die beiden Proteine tatsächlich phosphorylieren kann, steht allerdings noch aus.
Resumo:
Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.
Resumo:
Laut dem Statistischen Bundesamts ist die Zahl der im Straßenverkehr getöteten Personen zwar rückläufig, jedoch wurden in 2010 in Deutschland noch immer 3648 Personen bei Unfällen im Straßenverkehr getötet, 476 davon waren Fußgänger. In den letzten Dekaden lag der Schwerpunkt der Forschungsarbeiten zur Reduzierung der Verkehrstoten besonders im Bereich des Insassenschutzes. Erst in den letzten Jahren rückte die Thematik des Fußgängerschutzes mehr in den Fokus des öffentlichen Interesses und der Automobilhersteller. Forschungsarbeiten beschäftigen sich mit unterschiedlichen Ansätzen die Folgen einer Kollision zwischen einem Auto und einem Fußgänger zu reduzieren. Hierzu zählen z.B. weiche Aufprallzonen im Frontbereich eines Autos, aufstellende Motorhaube oder auch Fußgängerairbags im Bereich der Frontscheibe. Da passive Ansätze aber nur die Folgen eines Aufpralls am Fahrzeug, nicht aber die Folgen eines Sekundäraufpralls auf dem Boden verringern können, werden parallel Ansätze zur aktiven Kollisionsvermeidung untersucht. Die bisher verfolgten, ebenso wertvollen Ansätze, zeigen jedoch jeweils Schwachpunkte in Ihrer Lösung. So ist der Einsatz der bisherigen bordautonomen Ansätze auf Grund der Anforderungen der verschiedenen Systeme, wie der Notwendigkeit einer direkten, ungestörten Sichtverbindung zwischen Auto und Fußgänger, leider nur eingeschränkt möglich. Kooperative Systeme, die ein zusätzliches, vom Fußgänger mitzuführendes Sende-Empfänger Gerät zur Ermittlung der Fußgängerposition benötigen sind hingegen mit zusätzlichem Aufwand für den Fußgänger verbunden. Auch fehlen den bisher verfolgten Ansätzen Informationen über den Fußgänger, wodurch es schwierig ist, wenn nicht gar manchmal unmöglich, eine Situation korrekt bewerten zu können. Auch sehen diese Systeme keine Warnung des Fußgängers vor. In dieser Arbeit wird ein Verfahren zum Fußgängerschutz betrachtet, welches per Funk ausgetauschte Informationen zur Risikobewertung eines Szenarios nutzt. Hierbei werden neben den vom Auto bekannten Informationen und Parameter, die vom Smartphone des Fußgängers zur Verfügung gestellten Kontextinformationen verwendet. Es werden zum einen die Parameter, Bedingungen und Anforderungen analysiert und die Architektur des Systems betrachtet. Ferner wird das Ergbnis einer Untersuchung zur generellen Umsetzbarkeit mit bereits heute in Smartphone verfügbaren Funktechnolgien vorgestellt. Final werden die bereits vielversprechenden Ergebnisse eines ersten Experiments zur Nutzbarkeit von Sensorinformationen des Smartphones im Bereich der Kollisionsvermeidung vorgestellt und diskutiert.