20 resultados para imaginierte Vergangenheit
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Von der Idee zum Mythos. Die Rezeption des Bauhaus in beiden Teilen Deutschlands in Zeiten des Neuanfangs (1945 und 1989) Das Bauhaus wird 1919 durch Zusammenlegung der Großherzoglich Sächsischen Kunstgewerbeschule und der Hochschule für Bildende Kunst von Walter Gropius gegründet. Dabei geht es in seinem programmatischen Ansatz weit über seine institutionellen Vorgänger hinaus. Das Bauhaus-Konzept zielt nicht auf die Erschaffung einer zeitgemäßen Formsprache, sondern auf die Veränderung der gesellschaftlichen Wirklichkeit mit den Mitteln der Kunst. Diese Haltung ist eine Reaktion auf die Bewusstseinskrise, die durch den Ersten Weltkrieg ausgelöst worden war: Der zunehmenden Entfremdung von Kunst und Leben soll entgegengewirkt und dabei die versprengten Einzelkünste unter dem Primat der Architektur wieder zusammengeführt werden: Weil sich dieser sozial-moralische Impetus, der gemeinhin mit dem Schlagwort ‚Bauhaus-Idee’ umschrieben wird, äußerst vielschichtig darstellt, lässt er sich in die verschiedensten Kulturkonzepte einpassen. Die Arbeit legt die Bauhaus-Rezeption in Deutschland zu zwei verschiedenen Zeiten vergleichend dar. Im ersten Schritt wird die Ost- mit der Westrezeption verglichen. Dieser synchrone Vergleich wird zu zwei epochalen Umbruchsituationen durchgeführt; zum einen von 1945 bis Mitte der 50er Jahre, zum anderen von 1989 bis Mitte der 90er Jahre. Auf dieser Grundlage wird geprüft, wie sich die östliche als auch die westliche Wahrnehmung des Bauhaus von 1945-1955 gegenüber der Bauhausrezeption nach 1989 abhebt (diachroner Vergleich). Die Jahre 1945-1955 beschreiben die Entwicklung des Auseinanderbrechens der deutschen Nation in zwei autonome deutsche Staaten. Mit dem Jahr 1989 wird die Entwicklung umgekehrt: Deutschland wächst zu einer Kulturnation zusammen. Durch die Periodisierung (1945/1989) wird geklärt, wie das wiedervereinigte Deutschland auf kultureller Ebene mit der Vergangenheit des Kalten Krieges umgeht. Weil sich an der Bauhaus-Pädagogik am ehesten die reale Umsetzung der ‚Bauhaus-Idee’ ablesen lässt, analysiert meine Arbeit die pädagogischen Konzeptionen an deutschen Kunstschulen. Dabei wird in den Institutionsgeschichten der politisch-gesellschaftliche Rahmen stets mitgedacht, der Restituierungsversuche ermöglicht oder scheitern lässt. Im Zentrum meiner Arbeit steht nicht die Analyse der Sache ‚Bauhaus, sondern dessen Missdeutung und Umdeutung in politisch divergenten Zeiten. Für die Zeit 1945-1955 beschreibe ich auf westdeutscher Seite die Hochschule für Gestaltung in Ulm und die Werkakademie bzw. Werkkunstschule in Kassel. Im Osten konzentriert sich der Blick auf die historischen Bauhaus-Stätten: Weimar und Dessau. Nach der Wende vermischen sich die bis dahin getrennten Rezeptionsstränge von Ost und West. In der wiedervereinigten Bundesrepublik existieren neben dem Bauhaus-Archiv nunmehr zwei zusätzliche Institutionen: die Bauhaus-Universität in Weimar und die Stiftung Bauhaus Dessau. Wie wird in dieser historischen Situation das Bauhaus-Erbe aufgeteilt und verwaltet?
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
In dieser Arbeit werden verschiedene Computermodelle, Rechenverfahren und Methoden zur Unterstützung bei der Integration großer Windleistungen in die elektrische Energieversorgung entwickelt. Das Rechenmodell zur Simulation der zeitgleich eingespeisten Windenergie erzeugt Summenganglinien von beliebig zusammengestellten Gruppen von Windenergieanlagen, basierend auf gemessenen Wind- und Leistungsdaten der nahen Vergangenheit. Dieses Modell liefert wichtige Basisdaten für die Analyse der Windenergieeinspeisung auch für zukünftige Szenarien. Für die Untersuchung der Auswirkungen von Windenergieeinspeisungen großräumiger Anlagenverbünde im Gigawattbereich werden verschiedene statistische Analysen und anschauliche Darstellungen erarbeitet. Das im Rahmen dieser Arbeit entwickelte Modell zur Berechnung der aktuell eingespeisten Windenergie aus online gemessenen Leistungsdaten repräsentativer Windparks liefert wertvolle Informationen für die Leistungs- und Frequenzregelung der Netzbetreiber. Die zugehörigen Verfahren zur Ermittlung der repräsentativen Standorte und zur Überprüfung der Repräsentativität bilden die Grundlage für eine genaue Abbildung der Windenergieeinspeisung für größere Versorgungsgebiete, basierend auf nur wenigen Leistungsmessungen an Windparks. Ein weiteres wertvolles Werkzeug für die optimale Einbindung der Windenergie in die elektrische Energieversorgung bilden die Prognosemodelle, die die kurz- bis mittelfristig zu erwartende Windenergieeinspeisung ermitteln. In dieser Arbeit werden, aufbauend auf vorangegangenen Forschungsarbeiten, zwei, auf Künstlich Neuronalen Netzen basierende Modelle vorgestellt, die den zeitlichen Verlauf der zu erwarten Windenergie für Netzregionen und Regelzonen mit Hilfe von gemessenen Leistungsdaten oder prognostizierten meteorologischen Parametern zur Verfügung stellen. Die softwaretechnische Zusammenfassung des Modells zur Berechnung der aktuell eingespeisten Windenergie und der Modelle für die Kurzzeit- und Folgetagsprognose bietet eine attraktive Komplettlösung für die Einbindung der Windenergie in die Leitwarten der Netzbetreiber. Die dabei entwickelten Schnittstellen und die modulare Struktur des Programms ermöglichen eine einfache und schnelle Implementierung in beliebige Systemumgebungen. Basierend auf der Leistungsfähigkeit der Online- und Prognosemodelle werden Betriebsführungsstrategien für zu Clustern im Gigawattbereich zusammengefasste Windparks behandelt, die eine nach ökologischen und betriebswirtschaftlichen Gesichtspunkten sowie nach Aspekten der Versorgungssicherheit optimale Einbindung der geplanten Offshore-Windparks ermöglichen sollen.
Resumo:
Im Dezember 1997 veröffentlichte die Frankfurter Allgemeine Zeitung den als Rechtsgutachten abgefassten Beitrag des Heidelberger Juristen Friedrich-Christian Schoeder (Schroeder 1997). Die Frage, die Autor und Zeitung eher spielerisch als aus konkretem Anlass umtrieb, galt dem rechtlichen Status eines Menschen, dessen Kopf auf den Körper eines anderen Menschen transplantiert wurde. Medizinisch waren und sind solche Eingriffe noch nicht durchführbar, aber immerhin schienen sie für den Autor und die Zeitung eine Aktualität zu besitzen. Auch bei folgenden Auseinandersetzungen, die in den Medien um die Konsequenzen der medizinisch-technischen Entwicklung geführt wurden, geraten Bewusstsein, Subjektivität und Körper zum statischem Abbild des Gegenwärtigen, sie werden nicht als Substrat historischer Prozesse begriffen. Ohne den Begriff der Vergangenheit plaudern sich eine Vielzahl Autoren durch die Zukunft. In dieser muss auch der auf einen fremden Körper übertragene Kopf als Rechtssubjekt verwaltet werden. Aber wie verändert sich der Mensch, durch eine medizinische Maßnahme vervollständigt, die dauerhaft seine Körpergrenze verschiebt? Die Transplantationsmedizin ist bei der Auseinandersetzung um Subjektivität nicht nur dann von besonderem Interesse, wenn ein Kopf auf, sondern auch, wenn ein gespendetes Organ in einen fremden Körper verpflanzt wird. Die Trennung von Fremd und Eigen, Außen und Innen ist eng mit dem Zivilisationsprozess und der Subjektwerdung verbunden. Was körperlich durch medizinische Maßnahmen verschoben wird, die Grenze zwischen Außen und Innen, ist die Bedingung der Möglichkeit von Subjektivität. Der Titel dieser Arbeit, Der Prothesengott, verweist auf die individuellen und zivilisatorischen Leistungen, die vollbracht werden mussten, um mit Fug und Recht „Ich“ sagen zu können. Der Begriff Prothesengott ist der Freudschen Schrift Das Unbehagen in der Kultur entnommen. Freud schreibt dort vom Ideal des Prothesengottes und das erste Kapitel der hier vorgelegten Arbeit ist der Entfaltung dieses Ideals gewidmet. Dieses Begriffspaar hat mehr Bedeutungsnuancen, als Freud an Ort und Stelle entwickelte. Es umfasst die Bedeutung von Mythos und Gott als Prothesen, als Ideale, die den Menschen vervollständigten. Aber auch die Bedeutung von Theorien, Ideen, schlicht Idealen als Prothesen Gottes ist angesprochen, und damit der Versuch, den Verlust Gottes auszugleichen. Und zu guter Letzt benennt es das Ideal eines Gottes durch Prothesen, die Apotheose, wie Freud sie meinte: Als Vergötzung der Prothesen, mit denen der Mensch sich vervollständigt, um sich nach dem Tod Gottes selber ein Versprechen auf Erlösung sein zu können. Mit dieser Entfaltung soll die Zivilisation wie die individuelle Entwicklung als ein Prozess rekonstruiert werden, in dem Subjektivität gleichzeitig hervorgebracht und beschädigt wird. Diese Dialektik von Zivilisation und Barbarisierung findet ihren vorläufigen Höhepunkt im Fortschreiten der technischen Mittel unserer Zeit. Zur empirischen Fassung der historisch vorfindlichen Subjektivität wurden Patienten der Transplantationseinheit der Universität Leipzig gebeten, in den ersten drei Monaten nach der Operation Tagebücher auszufüllen. Diese Tagebücher wurden mit statistischen und hermeneutischen Methoden ausgewertet. Die Transplantationserfahrung offenbart sich in den Tagebüchern zwar als besondere, aber in eine Vielzahl von Techniken der Körpergestaltung eingebettete Maßnahme. Neben einer kritischen Würdigung des methodischen Vorgehens wird im fünften Kapitel die Transplantationserfahrung in den Kontext anderer Forschungsergebnisse zur Gestaltung des Körpers gestellt. Deren kritische Diskussion und die Transplantationserfahrungen bieten einen Ausblick darauf, was Eingedenken der Natur im Subjekt heute bedeuten kann.
Resumo:
Das Werkstoffverhalten von stahlfaserfreiem bzw. stahlfaserverstärktem Stahlbeton unter biaxialle Druck- Zugbeanspruchung wurde experimentell und theoretisch untersucht. Die Basis der experimentellen Untersuchungen waren zahlreiche Versuche, die in der Vergangenheit an faserfreiem Stahlbetonscheiben zur Bestimmung des Werkstoffverhaltens von gerissenem Stahlbeton im ebenen Spannungszustand durchgeführt wurden. Bei diesen Untersuchungen wurde festgestellt, dass infolge einer Querzugbeanspruchung eine Abminderung der biaxialen Druckfestigkeit entsteht. Unter Berücksichtigung dieser Erkenntnisse sind zur Verbesserung der Werkstoffeigenschaften des Betons, Stahlbetonscheiben aus stahlfaserverstärktem Beton hergestellt worden. Die aus der Literatur bekannten Werkstoffmodelle für Beton sowie Stahlbeton, im ungerissenen und gerissenen Zustand wurden hinsichtlich der in der Vergangenheit ermittelten Materialeigenschaften des Betons bzw. Stahlbetons unter proportionalen sowie nichtproportionalen äußeren Belastungen erklärt und kritisch untersucht. In den frischen Beton wurden Stahlfasern hinzugegeben. Dadurch konnte die Festigkeits- und die Materialsteifigkeitsabminderung infolge Rissbildung, die zur Schädigung des Verbundwerkstoffs Beton führt, reduziert werden. Man konnte sehen, dass der Druckfestigkeitsabminderungsfaktor und insbesondere die zur maximal aufnehmbaren Zylinderdruckfestigkeit gehörende Stauchung, durch Zugabe von Stahlfasern besser begrenzt wird. Die experimentelle Untersuchungen wurden an sechs faserfreien und sieben stahlfaserverstärkten Stahlbetonscheiben unter Druck-Zugbelastung zur Bestimmung des Verhaltens des gerissenen faserfreien und stahlfaserverstärkten Stahlbetons durchgeführt. Die aus eigenen Versuchen ermittelten Materialeigenschaften des Betons, des stahlfaserverstärkten Betons und Stahlbetons im gerissenen Zustand wurden dargelegt und diskutiert. Bei der Rissbildung des quasi- spröden Werkstoffs Beton und dem stahlfaserverstärkten Beton wurde neben dem plastischen Fließen, auch die Abnahme des Elastizitätsmoduls festgestellt. Die Abminderung der aufnehmbaren Festigkeit und der zugehörigen Verzerrung lässt sich nicht mit der klassischen Fließtheorie der Plastizität ohne Modifizierung des Verfestigungsgesetzes erfassen. Es wurden auf elasto-plastischen Werkstoffmodellen basierende konstitutive Beziehungen für den faserfreien sowie den stahlfaserverstärkten Beton vorgeschlagen. Darüber hinaus wurde in der vorliegenden Arbeit eine auf dem elasto-plastischen Werkstoffmodell basierende konstitutive Beziehung für Beton und den stahlfaser-verstärkten Beton im gerissenen Zustand formuliert. Die formulierten Werkstoffmodelle wurden mittels dem in einer modularen Form aufgebauten nichtlinearen Finite Elemente Programm DIANA zu numerischen Untersuchungen an ausgewählten experimentell untersuchten Flächentragwerken, wie scheibenartigen-, plattenartigen- und Schalentragwerken aus faserfreiem sowie stahlfaserverstärktem Beton verwendet. Das entwickelte elasto-plastische Modell ermöglichte durch eine modifizierte effektive Spannungs-Verzerrungs-Beziehung für das Verfestigungsmodell, nicht nur die Erfassung des plastischen Fließens sondern auch die Berücksichtigung der Schädigung der Elastizitätsmodule infolge Mikrorissen sowie Makrorissen im Hauptzugspannungs-Hauptdruckspannungs-Bereich. Es wurde bei den numerischen Untersuchungen zur Ermittlung des Last-Verformungsverhaltens von scheibenartigen, plattenartigen- und Schalentragwerken aus faserfreiem und stahlfaserverstärktem Stahlbeton, im Vergleich mit den aus Versuchen ermittelten Ergebnissen, eine gute Übereinstimmung festgestellt.
Resumo:
Das Thema dieser Arbeit ist die philosophischgeschichliche Darlegung des Selbstfindungsprozesses des lateinamerikanischen Denkens. Es wird die enge Verknüpfung dieses Denkens mit der Kultur aufgezeigt, in der es entstand und die sich in deren Mythen und Traditionen widerspiegelt. Durch diese kulturgeschichtlichen Betrachtungen soll der Leser zum Verständnis der lateinamerikanischen Autoren und zu deren zentralen Themen hingeführt werden. Die Erfahrung hat die lateinamerikanischen Denker gelehrt, dass sie die Begriffswelt Europas nicht identisch in ihre Lebenswelt übernehmen können, sonder dass sie diese umbilden müssen. Die Widersprüche zwischen den Bezugspunkten ihres Denkens, der westlichen Rationalität und der eigenen Realität empfinden sie als Inauthentizität. Das Bewusstsein von der Notwendigkeit eines Neuanfangs, des Befindens an einem Nullpunkt, kennzeichnet die Philosophie Lateinamerikas. Nicht der Besitz eines Wissens in festen Begriffen, sondern die Suche nach Offenheit charakterisiert diese Denken. Offenheit ist ihr zentraler Begriff, der ihren Weg zur Authentizität beschreibt. Authentizität ist hier nicht eine Eigenschaft des Menschen, die er aus sich selbst entwickelt. Sie ist auch nicht rein vom Erkennen des faktischen Seins deduzierbar. Authentizität ist ein Ziel, das nur gemeinsam mit den anderen, in einer durch die Gemeinsamkeit geschaffenen Kultur erreicht werden kann. Die Authentizität eines Denkens kann nur aus einer kulturellen Gemeinschaft erwachsen. In Lateinamerika erfolgt die Orientierung an der Gemeinschaft und deren Lebensgesetzen. Freiheit bedeutet hier diese Lebensgesetze aufzufinden und sie mit derGemeinschaft zu realizieren, also eine Verpfichtung auf die eigene Authentizität. Diese Philosophie sucht die Utopie, die Vergangenheit und Zukunft verbindet. Sie hat die Kraft der Transformation und setzt neue Intentionen, die unser Bild der Realität verändern. Sie bietet die Möglichkeit zu einem Denken das über die eine Rationalität hinausgeht. Durch ihre Ziele wird sie zum Teil der interkulturellen Philosophie.
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
Die Aufarbeitung der Wechselwirkung von Politik, Schulentwicklung und dem mit dem Verfassungsauftrag verbundenen Verantwortungsbereich der Schulaufsicht und ihrer Steuerungsfunktion im Bildungswesen ist Thema der Studie. Es sollen die Kontexte von Bildungsplanung, Steuerung der Schulentwicklung und Schulaufsicht bezogen auf die „autonome“ Schule am Beispiel Hessens dargestellt, analysiert und Perspektiven aufgezeigt werden. Die rechtlichen Grundlagen der Schulentwicklung und ihre bildungspolitischen Ausprägungen und die Strukturen und die Organisation der Bildungsverwaltung – mit einer Fokussierung auf die „inneren“ und „äußeren“ Schulangelegenheiten - werden dargestellt und die Entwicklungsprozesse analysiert. An den Beispielen Mittelpunktschule/Förderstufe und Schulprogramm wird der Versuch unternommen, die veränderten Rollen und Funktionen der Schulaufsicht in Verbindung mit den jeweiligen Entwicklungsphasen der Schulaufsichtsorganisation seit 1945 aufzuzeigen. Im Spannungsfeld von Politik, Pädagogik und Ökonomie war und ist die Steuerung der Schulentwicklung durch die Bildungsverwaltung ein zentrales gestaltendes Element. Die Schulforschung hat in der Vergangenheit dem Bereich der Bildungsverwaltung, hier insbesondere der Schulaufsicht, relativ wenig Aufmerksamkeit geschenkt. Dabei ist die Schulaufsicht nicht nur im Grundgesetz sondern in allen Länderverfassung als „hoheitliche“ Aufgabe verankert und in den entsprechenden Schulgesetzen als Dienst-, Fach- und Rechtsaufsicht über die Schulen ein fester Bestandteil des staatlichen Gewaltmonopols. Nicht nur die Schulaufsicht als Teil der Bildungsverwaltung und ihre direkte und indirekte Rolle bei der Steuerung der Schulentwicklung in Hessen, auch der Einfluss der Finanzpolitik sowie die Auswirkungen der internationalen Vergleichsuntersuchungen und der Europäisierung (TIMSS, PISA, IGLU, Bologna, Lissabon, EU-Programme, internationale Organisationen) werden kontextuell behandelt. Die Auswirkungen finanzpolitischer Entscheidungen ("schlanker Staat") und die Einführung der Neuen Verwaltungssteuerung in Hessen auf die weiteren Perspektiven der Schulaufsicht und die Bildungsverwaltung insgesamt werden im Kontext zu den übrigen Bundesländern auf Grund aktueller politischer Entscheidungen im Zusammenhang mit der Diskussion um Qualitätssicherung im Bildungswesen aufgezeigt und künftige Funktionen und Gestaltungsmöglichkeiten der Schulaufsicht als „regionaler Qualitätsagentur“ perspektivisch entwickelt.
Resumo:
Zusammenfassung (deutsch) Seit den 1980iger Jahren wächst die Bedeutung der sog. Bildschaffenden Methoden für die Bestimmung der Qualität ökologischer Produkte. Zu diesen Methoden gehört die Biokristallisation, Steigbild und Rundfilter-Chromatographie. Die Ergebnisse dieser Methoden sind Bilder, die anhand definierter Kriterien ausgewertet werden. Bei der Biokristallisation sind es mehr oder weniger geordnete Kristallisationen auf einer Glasplatte, bei dem Steigbild zweidimensionale Strukturen auf Chromatographiepapier. In der Vergangenheit wurden die Bilder von Spezialisten ausgewertet, die nach einer längeren Schulung produktspezifische Kriterien entwickelt hatten. Im Gegensatz zur Dünnschicht-Chromatographie, wo der einzelne Stoff von der Matrix separiert wird, ist das Ziel beim Steigbild, Strukturen der möglichst ganzen Probe zu erzeugen. Die Methode wurde von Kolisko in den 1929iger Jahren entwickelt, wobei eine Kombination aus Chromatographieprozess und Metallkomplexreaktionen genutzt wurde. Die Firma WALA entwickelte die Methode für die Kontrolle ihrer Produkte und setze Silbernitrat und Eisensulfat ein. Bisher wurde die Methode qualitativ beschreibend ausgewertet, wobei einzelne Bildelemente und deren Interaktion beschrieben wurden. Deshalb musste für die vorliegende Arbeit Auswertungsmethoden entwickelt werden, mit denen auch eine statistische Bearbeitung der Ergebnisse möglich ist (nominale Unterscheidung von proben anhand der Bilder). Die Methode wurde bisher in einer Reihe von Studien eingesetzt (u.a. die Unterscheidung von Produktionsweisen). Obwohl die Bilder nur qualitativ ausgewertet wurden, konnten geschulte Prüfpersonen Proben aus verschiedenen Anbausystemen anhand der Bilder trennen. Die Ergebnisse wurden aber nicht so dokumentiert, dass sie den Erfordernissen internationaler Standardnormen für Laboratorien genügten. Deshalb mussten für diese Arbeit zunächst die Prozeduren dokumentiert und eine systematische Untersuchung zu den Einflussgrößen durchgeführt werden. Dazu wurde die visuelle Bildauswertung entwickelt und standardisiert. Die visuelle Bildauswertung basiert auf morphologischen Kriterien der Bilder von den untersuchten Weizen- und Möhrenproben. Ein Panel aus geschulten Personen entwickelte dann die Kriterien und legte sie anhand von Referenzbildern fest. Die Bilder der vorliegenden Arbeit wurden mit der einfach beschreibenden Prüfung ausgewertet, wie sie aus der sensorischen Prüfung von Lebensmitteln übernommen werden konnte. Mit geschulten und ungeschulten Prüfpersonen wurden Weizenproben und verschiedene Möhrensäfte mit der sog. Dreiecksprüfung ausgewertet (von ISO 4120). Alle Laborprozeduren wurden dokumentiert. Mit der Anwendung dieser Prozeduren wurden Vergleichsversuche mit Laboren in Dänemark und Holland (BRAD, LBI) durchgeführt. Die Ergebnisse waren sowohl für Weizen- als auch für Möhrenproben vergleichbar, wobei alle drei Labore zwischen jeweils zwei Proben unterscheiden konnten. Die systematische Untersuchung zu den Einflussgrößen zeigte, dass das Unterscheidungsvermögen der Methode vor allem von den klimatischen Bedingungen während der Steigphasen beeinflusst wird. Auch die Präkonditionierung der Papiere hat einen großen Einfluss, während die Wasserqualität (ultra-filtriert, de-ionisiert, destilliert) eine untergeordnete Bedeutung hat. Für Weizen- und Möhrenproben wurde sowohl die Wiederholbarkeit als auch die Reproduzierbarkeit getestet. Die Unterschiede in den Bildern der verschiedenen Proben waren dabei immer größer als die Variation durch Proben- und Bildwiederholung und das Labor. Die so charakterisierte Methode wurde auf kodierte Proben von definierten Feldversuchen und auf Marktproben (Paarvergleich von Anbausystemen ökologisch und konventionell) angewandt, wobei als Ergebnis mehr als 90% der Proben mit der einfach beschreibenden Prüfung anhand der Bilder unterschieden werden konnten. Die Auswertung mit der Dreiecksprüfung zeigte, dass sowohl Sorten und Verarbeitungsschritte (Saft) als auch Anbauweisen signifikant getrennt wurden. Darüber hinaus wurde die Methode auch erfolgreich auf Apfelproben angewandt. Weitere Untersuchungen müssen zeigen, ob sich das Potential der Methode, verschiedene Fragen wie die Authentizitätsprüfung von Lebensmitteln verifizieren lassen.
Resumo:
In der Vergangenheit verfolgte die Wasserwirtschaft insbesondere das Ziel, Wasser als Ressource zu nutzen und vom Wasser ausgehende Gefahren, wie zum Beispiel Hochwasser, abzuwehren oder zu vermindern. In den letzten etwa dreißig Jahren stellte sich jedoch eine Veränderung des Verständnisses der Wasserwirtschaft ein. Mit der Einführung des Wasserhaushaltsgesetzes rückte der ökologisch orientierte Gewässerschutz mehr in den Vordergrund, der sich zu einem ganzheitlich gedachten Ansatz entwickelte. Am 22.12.2000 trat die EG-Wasserrahmenrichtlinie der Europäischen Gemeinschaft in Kraft (EG-WRRL). Die Wasserrahmenrichtlinie fordert erstmalig, dass auf der Grundlage eines ökosystemaren Ansatzes ein „guter ökologischer Zustand“ erreicht werden soll. Da der „gute ökologische Zustand“ noch nicht abschließend definiert ist, werden innerhalb Europas derzeit bestehende Klassifizierungssysteme als Indikator für die Bedingungen, denen ein biologischer Zustand zugeordnet wird, benutzt. Die Abschätzung der Wahrscheinlichkeit einer Zielerreichung kann also nur ein Prozess sein, der anhand erster Kriterien vorgenommen und später iterativ verfeinert wird. Dabei ist es von Bedeutung, das Risiko einer Fehleinschätzung zu minimieren, um einerseits sicherzustellen, dass alle hinsichtlich der Zielerreichung unsicheren Gewässer tatsächlich erfasst werden, andererseits aber auch zu verhindern, dass Ressourcen beim Monitoring und möglicherweise bei der Durchführung von Maßnahmen unnötig verbraucht werden. Durch eine Verfeinerung der Kriterien kann dieses Risiko verringert werden. Für die Fließgewässer in Deutschland stellen insbesondere Veränderungen der Gewässermorphologie und Belastungen aufgrund von Nährstoffeinträgen, die besonders in abflussschwachen Gewässerabschnitten häufig zu einer Eutrophierung führen, Probleme dar, die es abzumildern gilt (BMU 2005), um die Ziele der EG-Wasserrahmenrichtlinie erreichen zu können. Vor diesem Hintergrund hat die vorliegende Arbeit zum Ziel, einen methodischen Beitrag zur Risikoanalyse anthropogener Belastungen zu leisten. Im Mittelpunkt standen dabei die folgenden Punkte: 1. Darstellung der Anforderungen bei der Gewässerbewirtschaftung nach Einführung der Europäischen Wasserrahmenrichtlinie. 2. Dokumentation, Analyse und Vergleich der Kriterien und Verfahren im europäischen Kontext(Aufzeigen der relevanten Gewässerbelastungen in Deutschland wie im europäischen Ausland einschließlich eines Vergleichs der Methoden und Datengrundlagen zur Beurteilung signifikanter Gewässerbelastungen). 3. Vergleichende Analyse der ökologischen Bedeutung der im Umweltmanagement angewandten Methoden und Kriterien zur Risikoanalyse hinsichtlich Strukturgüte und Gewässereutrophierung an ausgewählten Fallbeispielen in Hinblick auf Sensitivität, Skalenabhängigkeit sowie weitere Unsicherheiten 4. Entwicklung eines methodischen Vorschlags für eine verbesserte Vorgehensweise bei der verursacherbezogenen Beurteilung der Belastungen vor dem Hintergrund eines effektiven Einsatzes der finanziellen Ressourcen.
Resumo:
Gegenüber anderen sensorischen Systemen wie z. B. optischer oder akustischer Wahrnehmung wurde der olfaktorische Sinn der Anuren von wissenschaftlicher Seite her in der Vergangenheit eher vernachlässigt. Dementsprechend gering sind auch die Erkenntnisse bezüglich der biologischen Bedeutung von Gerüchen für die Froschlurche sowie das Verständnis der damit verbundenen physiologischen Abläufe. Wie die meisten Tetrapoden besitzen auch Anuren ein mehrteiliges Geruchsorgan, welches im Wesentlichen aus dem klassischen olfaktorischen sowie dem vomeronasalen System besteht. Das klassische olfaktorische Organ nimmt bekanntermaßen flüchtige Geruchsstoffe aus der Atemluft wahr. Über die Aufgaben des Vomeronasalorgans - auch Jacobsonsches Organ genannt - herrscht allgemein noch Uneinigkeit. Es ist bekannt, dass dieses flüssigkeitsgefüllte Organ bei verschiedenen Gruppen der Landwirbeltiere durch die Wahrnehmung von Pheromonen sowohl an der sozialen Interaktion beteiligt ist, als auch auf andere olfaktorische Stimuli wie z. B. Futtergeruch reagiert. Verschiedene Untersuchungen am Vomeronasalorgan der Säuger konnten zeigen, dass bei diesen Tieren ein intranasales Pumpsystem existiert, welches Geruchsstoffe und Flüssigkeit innerhalb der Nase bewegt und so das blindsackförmige Organ mit Geruchsinformationen versorgt. Im Rahmen der vorliegenden Untersuchung wurde auf der Basis einer breit angelegten anatomischen Studie der nasalen Strukturen unterschiedlicher Anuren der Versuch einer tiefergehenden Funktionsanalyse der olfaktorischen Organe vorgenommen. Dabei wurden die nasalen Baupläne aller wichtigen systematischen Gruppen der anuren Amphibien verglichen. Zur Unterstützung der histologischen Daten wurde ein digitales dreidimensionales Modell der Nasenhöhlen erstellt, sowie Vitalfärbungen mit einem fluoreszierenden Farbstoff durchgeführt. Die anatomischen Befunde der Untersuchung liefern deutliche Hinweise darauf, dass Anuren - ähnlich wie Säuger - einen vasomotorischen Pumpmechanismus zur Befüllung des Vomeronasalorgans besitzen. Des Weiteren wurden basierend auf den hier gewonnenen Daten Theorien zu unterschiedlichen Details des intranasalen Transports sowie der Aufnahme olfaktorischer Stimuli bei Anura aufgestellt. Die Untersuchung macht außerdem deutlich, dass bei Anuren vier voneinander unabhängige olfaktorische Systeme existieren. Darüber hinaus werden anhand der gewonnenen Erkenntnisse einige Aspekte phylogenetischer Zusammenhänge bezüglich der Entstehung der verschiedenen Geruchssysteme innerhalb der Vertebraten neu diskutiert.