717 resultados para Equacao de bethe ansatz
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
In der vorliegenden Dissertation geht es um die Dokumentation, theoretische Begründung und Auswertung des in 25 Jahren Praxis entwickelten Curriculums der Bewusstseinsschulung und -weitung der Orgodynamik. Dabei geht es insbesondere um den Vergleich und die forschungsorientierte Verknüpfung verschiedener Traditionen der Bewusstseinsbildung, der ihnen zugrunde liegenden Konzepte und anthropologischen Dimensionen im Schnittfeld pädagogischer, psychologischer und spiritueller Perspektiven. In Anlehnung an das von Fuhr/Dauber (2002) entwickelte Modell, der Praxisentwicklungsforschung, welche die Verflechtung von Theorie und Praxis ansteuert, wird der orgodynamische Ansatz wissenschaftlich dokumentiert und theoretisch begründet. Über eine induktive Vorgehensweise werden die historischen Wurzeln konzeptionell dargelegt, die verborgenen Paradigmen herausgearbeitet, sowie das Curriculum erläutert und ausgewertet. In einem ersten theorieorientierten Kapitel wird das orgodynamische Methodenspektrum in seinem Grundmodell und den vier zentralen Dimensionen (mentale, körperliche, emotionale, energetische Dimension) aufgezeigt und mit theoretischen Hintergrundkonzepten verglichen und verknüpft. Die vier sich überlappenden Methodengruppen der mental, körperlich, emotional und energetisch orientierten Bewusstseinsarbeit werden differenziert dargestellt und in ihrer Beziehung zueinander diskutiert. Anhand eines Modells (Methodenrad) wird die multi-dimensionale Perspektive des Methodenspektrums, in einer nichthierarchischen Zuordnung sichtbar. Im zweiten theorieorientierten Hauptteil werden zunächst die zentralen vier Paradigmen der Orgodynamik (Präsenz, Multidimensionalität, Flow/Fließendes Gewahrsein, Bezogenheit) vorgestellt, theoretisch und praxisbezogen entfaltet und in einer Paradigmen-Landkarte zueinander in Beziehung gesetzt. Dabei werden die kategorialen Ausführungen durchgehend an Praxisbeispielen veranschaulicht und im Blick auf drei vorgestellte Zugänge zur Bewusstseinsweitung (Immersion, Integration und Dekonstruktion) exemplarisch didaktisch kommentiert. Im dritten Hauptteil wird das Curriculum im Zusammenhang mit einer Auswertungsmatrix erläutert. Diese dient als Überprüfungsinstrument. Mit ihrer Hilfe werden die verschiedenen methodischen Zugangsweisen und Arbeitsformen dieses Ansatzes, exemplarisch anhand von 2 Ausbildungswochen, im Blick der Multidimensionalität dokumentiert. Damit wird diese multidimensional angelegte Praxis exemplarisch bis in methodische Details nachvollziehbar und in dialogisch-selbstreflexiver Form überprüfbar. Exemplarisch werden in einem Exkurs erste Itemvorschläge gemacht, welche die wissenschaftliche Anschlussfähigkeit an neuere Forschung im transpersonalen Bereich aufzeigen. Das innere Anliegen der vorliegenden Arbeit zeigt in der Verschränkung von Theorie und Praxis, dass die Paradigmen der Orgodynamik, Präsenz, Multidimensionalität, fließendes Gewahrsein und bewusste Bezogenheit vier pädagogisch umgesetzte Paradigmen für eine Bewusstseinserforschung in der Erwachsenenbildung sind. Stichworte: Multidimensional, Bewusstseinserforschung, Bewusstseinsweite, Präsenz, bewusste Bezogenheit, Flow/Fließendes Gewahrsein, das „Größere“, Immersion, Integration, Dekonstruktion, pädagogische Paradigmen, Erwachsenenbildung, Multidimensionales Methodenspektrum, Orgodynamik, Körpertherapie. ---------------------------
Resumo:
Gegenstand der Arbeit ist ein journalistisches Unterrichtsprojekt zur Förderung einer politischen Medienbildung. Das Projekt wurde deutschlandweit in 20 Haupt- und Gesamtschulklassen mit rund 400 Schülern und Schülerinnen durchgeführt und qualitativ untersucht. Im theoretischen Teil werden Konzepte von Medienbildung, medienpädagogische Ansätze und Ergebnisse empirischer Untersuchungen vorgestellt, die für die Arbeit und das Projekt relevant waren. Kapitel 2 thematisiert das Phänomen „TV-Journalismus“ vor dem Hintergrund der Cultural Studies (v. a. Stuart Hall, Margret Lünenborg) und diskutiert es im Hinblick auf medienpädagogische Fragestellungen. Journalismus wird dabei als ein möglicher Weg gesehen, eine politische Bildung mit einer Medienbildung zu verknüpfen. Allerdings führen die Schwerpunkte Journalismus und Politik auch zu Schwierigkeiten bei der Umsetzung, wenn man bedenkt, dass sowohl journalistische Genres als auch Politik in der jugendlichen Lebenswelt keine maßgebliche Rolle spielen, wie aktuelle Jugendstudien zeigen (z. B. JIM- und Deutsche-Shell-Studien). Sinnvoll erscheint hier die Öffnung entsprechender Konzepte hin zu einem weiteren, lebensweltbezogenen Politik- und Journalismusverständnis, um Jugendlichen Bezugspunkte zu ihrer Alltagswelt zu bieten. Kapitel 3 und 4 stellen leitende theoretische Konzepte von Medienbildung/Medienkompetenz (etwa Winfried Marotzki, Manuela Pietraß) sowie medienpädagogische Ansätze (z. B. den handlungsorientierten, themenzentrierten Ansatz von Bernd Schorb) dar. „Medienbildung“ wird in der Arbeit verstanden als Beziehung des Menschen zu sich selbst und zur gegenständlichen und sozialen Welt, wie sie ihm medienvermittelt begegnet. Bildung ist dann das Ergebnis des kritisch-reflexiven Umgangs mit der medial vermittelten Welt. Eine Medienbildung umfasst dabei auch eine Medienkompetenz im Sinne von medienspezifischem Wissen und Fähigkeiten des Umgangs mit Medien. Eine „politische Medienbildung“ wird in Anlehnung an David Buckingham dann zum einen als ein kritisches „Lesen“ medialer Texte definiert, in welchen die soziale Welt vermittelt wird. Zum anderen bedeutet eine „politische Medienbildung“ auch die eigene Gestaltung medialer Texte und die Teilhabe an einer medialen Kultur. Kapitel 5 beschreibt die konkrete forschungsmethodische Herangehensweise: Das medienpädagogische Projekt wurde qualitativ im Hinblick auf eine Medienbildung untersucht. Anders als in bisherigen Medienkompetenz-Studien wurde nicht nach den Wissenszuwächsen und erlernten Fähigkeiten nach Projektende gefragt. Im Zentrum des Interesses standen die im Unterrichtsprojekt beobachteten Situationen und Prozesse einer reflexiven Auseinandersetzung mit journalistisch vermittelten Themen und Darstellungsweisen. Verschiedene Methoden und Datenquellen wurden miteinander kombiniert, um die Unterrichtsrealität angemessen erfassen zu können. Zu den Erhebungsmethoden gehörten etwa die Unterrichtsaufzeichnung, die Gruppendiskussion und das Sammeln von alltagskulturellem Material. Die dabei gewonnenen Daten wurden mit den Auswertungsverfahren der Text- und Bildanalyse untersucht. Die Ergebnisse folgen schließlich in Kapitel 6. Dieses wird im Hinblick auf die konkretisierten Forschungsfragen differenziert in: • Kapitel 6.1: Hier geht es um die Auseinandersetzung der Schüler/innen mit Wissen über Medien. Relevant sind hier Fragen nach einem Vorwissen von Jugendlichen über journalistische Gestaltungsmittel und wie die Schüler/innen ein solches Vorwissen im Kontext des Unterrichts einbrachten. • Kapitel 6.2: Diese Ergebnisse zeigen auf, wie sich die Jugendlichen mithilfe journalistischer Texte mit einem Thema auseinandersetzten, z. B. wie sie diese hinsichtlich ihrer Glaubwürdigkeit oder ihrer Darstellung bewerteten. • Kapitel 6.3: In diesem Kapitel finden sich Ergebnisse aus den Gruppenarbeiten, in welchen die Schüler/innen selbst ein mediales Konzept entwarfen. Die Aufzeichnungen in den Gruppen deckten auf, wie die Schüler/innen an diese Aufgabe herangingen, welche inhaltlichen Schwerpunkte sie setzten, wie sie Sichtweisen in der Gruppe aushandelten und welche formale Darstellungsweise sie planten. Die Kapitel 6.4 und 7 liefern eine Zusammenfassung der wichtigsten Erkenntnisse und eine kritische Diskussion, welche Chancen und Probleme ein journalistisches Projekt im Kontext der Schule und insbesondere für die Zielgruppe einer niedrigen Bildungszugehörigkeit mit sich bringt.
Resumo:
Der vorliegende Bericht soll die Ergebnisse einer Untersuchung der wirtschaftsgeschichtlichen Entwicklung der Regionen Kassel/Nordhessen und Jena/Thüringen zusammenfassen. Als leitende Frage hinter der Untersuchung steht das Problem, inwieweit das gegenwärtige Innovationspotential der beiden Regionen von den Gegebenheiten ihrer Geschichte bestimmt wird. Dabei sollen mögliche Hinweise auf die geschichtlichen Grundlagen heutiger Unterschiede in den Untersuchungsregionen in den Blick gerückt werden. Von besonderem Interesse ist in diesem Zusammenhang, dass es sich sowohl in Bezug auf Kassel als auch auf Jena um klassische Industriestädte handelt, die darüber hinaus entscheidend durch das Vorhandensein eines Großunternehmens geprägt worden sind. Ziel der Untersuchung war es, in der Geschichte vor allem diejenigen Momente auszumachen, die für die Entstehung von regionalen Innovationssystemen förderlich oder hemmend wirksam geworden sind. Der Untersuchung liegt ein kulturgeschichtlicher Ansatz zugrunde, der die Wirtschaftsgeschichte zwar in den Vordergrund stellt, diese aber als einen Faktor unter anderen begreift. So werden politische und kulturelle sowie alltags- und mentalitätsgeschichtliche Aspekte einbezogen. Der zeitliche Untersuchungsrahmen im engeren Sinne liegt zwischen dem ausgehenden 19. Jahrhundert und der Wiedervereinigung der beiden deutschen Staaten im 20. Jahrhundert. Zwar war es notwendig, auch den Zeitraum vor der Epochenzäsur der „Zweiten Wirtschaftlichen Revolution“ einzubeziehen, doch ist mit dieser ein sinnvoller Ansatzpunkt für eine ausführlichere Untersuchung gegeben. Der Bericht gliedert sich in einen ersten Abschnitt, der sich mit der Region Kassel/Nordhessen befasst, und einen zweiten Abschnitt zur Region Jena/Thüringen. Zuerst werden jeweils die politisch-historischen Rahmenbedingung und die industrielle Entwicklung der Region erörtert. Es folgt die Betrachtung der Unternehmensentwicklung der jeweiligen Großbetriebe vor dem geschichtlichen Hintergrund. Deren Wechselwirkung mit Politik und Kultur wird nachgegangen, bevor dann die Frage nach den Folgen für das regionale Innovationspotential gestellt wird. Hier können nur einige Mutmaßungen angestellt werden, ein sicheres Urteil ist mit den vorliegenden Kenntnissen nicht möglich. Abschließend folgt ein Vergleich der Regionen.
Resumo:
Der Europäische Markt für ökologische Lebensmittel ist seit den 1990er Jahren stark gewachsen. Begünstigt wurde dies durch die Einführung der EU-Richtlinie 2092/91 zur Zertifizierung ökologischer Produkte und durch die Zahlung von Subventionen an umstellungswillige Landwirte. Diese Maßnahmen führten am Ende der 1990er Jahre für einige ökologische Produkte zu einem Überangebot auf europäischer Ebene. Die Verbrauchernachfrage stieg nicht in gleichem Maße wie das Angebot, und die Notwendigkeit für eine Verbesserung des Marktgleichgewichts wurde offensichtlich. Dieser Bedarf wurde im Jahr 2004 von der Europäischen Kommission im ersten „Europäischen Aktionsplan für ökologisch erzeugte Lebensmittel und den ökologischen Landbau“ formuliert. Als Voraussetzung für ein gleichmäßigeres Marktwachstum wird in diesem Aktionsplan die Schaffung eines transparenteren Marktes durch die Erhebung statistischer Daten über Produktion und Verbrauch ökologischer Produkte gefordert. Die Umsetzung dieses Aktionsplans ist jedoch bislang nicht befriedigend, da es auf EU-Ebene noch immer keine einheitliche Datenerfassung für den Öko-Sektor gibt. Ziel dieser Studie ist es, angemessene Methoden für die Erhebung, Verarbeitung und Analyse von Öko-Marktdaten zu finden. Geeignete Datenquellen werden identifiziert und es wird untersucht, wie die erhobenen Daten auf Plausibilität untersucht werden können. Hierzu wird ein umfangreicher Datensatz zum Öko-Markt analysiert, der im Rahmen des EU-Forschungsprojektes „Organic Marketing Initiatives and Rural Development” (OMIaRD) erhoben wurde und alle EU-15-Länder sowie Tschechien, Slowenien, Norwegen und die Schweiz abdeckt. Daten für folgende Öko-Produktgruppen werden untersucht: Getreide, Kartoffeln, Gemüse, Obst, Milch, Rindfleisch, Schaf- und Ziegenfleisch, Schweinefleisch, Geflügelfleisch und Eier. Ein zentraler Ansatz dieser Studie ist das Aufstellen von Öko-Versorgungsbilanzen, die einen zusammenfassenden Überblick von Angebot und Nachfrage der jeweiligen Produktgruppen liefern. Folgende Schlüsselvariablen werden untersucht: Öko-Produktion, Öko-Verkäufe, Öko-Verbrauch, Öko-Außenhandel, Öko-Erzeugerpreise und Öko-Verbraucherpreise. Zudem werden die Öko-Marktdaten in Relation zu den entsprechenden Zahlen für den Gesamtmarkt (öko plus konventionell) gesetzt, um die Bedeutung des Öko-Sektors auf Produkt- und Länderebene beurteilen zu können. Für die Datenerhebung werden Primär- und Sekundärforschung eingesetzt. Als Sekundärquellen werden Publikationen von Marktforschungsinstituten, Öko-Erzeugerverbänden und wissenschaftlichen Instituten ausgewertet. Empirische Daten zum Öko-Markt werden im Rahmen von umfangreichen Interviews mit Marktexperten in allen beteiligten Ländern erhoben. Die Daten werden mit Korrelations- und Regressionsanalysen untersucht, und es werden Hypothesen über vermutete Zusammenhänge zwischen Schlüsselvariablen des Öko-Marktes getestet. Die Datenbasis dieser Studie bezieht sich auf ein einzelnes Jahr und stellt damit einen Schnappschuss der Öko-Marktsituation der EU dar. Um die Marktakteure in die Lage zu versetzen, zukünftige Markttrends voraussagen zu können, wird der Aufbau eines EU-weiten Öko-Marktdaten-Erfassungssystems gefordert. Hierzu wird eine harmonisierte Datenerfassung in allen EU-Ländern gemäß einheitlicher Standards benötigt. Die Zusammenstellung der Marktdaten für den Öko-Sektor sollte kompatibel sein mit den Methoden und Variablen der bereits existierenden Eurostat-Datenbank für den gesamten Agrarmarkt (öko plus konventionell). Eine jährlich aktualisierte Öko-Markt-Datenbank würde die Transparenz des Öko-Marktes erhöhen und die zukünftige Entwicklung des Öko-Sektors erleichtern. ---------------------------
Resumo:
In der vorliegenden Arbeit werden die Erfolge und Misserfolge der Freiraumpolitik im Ruhrgebiet untersucht. Ausgangspunkte sind der Freiraumschwund, der über einen Zeitraum von fast 200 Jahren dokumentiert wird, sowie die Gegenbewegungen, die sich für den Freiraumschutz einsetzen. Nach der Vorstellung einer Freiraumtypologie werden diese Entwicklungen in detaillierten historischen Abrissen für jeden Freiraumtyp dargestellt, woraus sich eine eigene Ruhrgebietsgeschichte - aus der Perspektive der Freiflächen und ihrer Nutzer - ergibt. Folgerichtig beginnt die vorliegende Arbeit nicht mit Kohle und Eisen, sondern mit der Land- und Forstwirtschaft. Anhand historischer Quellen wird die gängige Am-Anfang-war-die-Heide-These widerlegt, denn das Ruhrgebiet war waldreich und ein produktiver Agrarraum. Landwirtschaftliche Flächen- und Waldverluste sind die Basis der Siedlungstätigkeit. Ohne die Gemeinheitsteilungen im 19. Jahrhundert wären die Stadterweiterungen und Industrieansiedlungen im Ruhrgebiet nicht möglich gewesen. Die - in Grundzügen im Ersten Weltkrieg entwickelte - Agrarpolitik mit der Förderung von Produktivitätssteigerungen und Hofaufgaben erleichterte den weiteren Entzug von Agrarflächen, und genauso wirkt heute die Liberalisierung der Agrarmärkte. Alternative Ansätze (z.B. Direktvermarktung) konnten diesen Trend noch nicht aufhalten. Auch das Baumschutzgesetz von 1922 konnte die nationalsozialistischen Kahlschläge, die Waldverluste im Zweiten Weltkrieg und durch den Wiederaufbau nicht verhindern. Erst seit der Deindustrialisierung, der Aufforstung von Halden und der Umweltbewegung nehmen Wälder wieder zu. Demgegenüber treten Ende des 19. Jahrhunderts völlig neue Freiraumtypen auf. Die bürgerschaftliche Kleingartenbewegung wurde dank ihrer Bedeutung für die Ernährung in den Städten seit dem Ersten Weltkrieg vom Staat stark unterstützt, von den Nationalsozialisten gleichgeschaltet, konnte aber in den 1950er Jahren ihren bürgerschaftlichen Charakter und ihre Stärke wieder zurückgewinnen. Auch wenn Kleingärten als bauliche Reserveflächen missbraucht werden, geschieht dies nicht mehr ohne Ersatzland. Im Unterschied hierzu wurde die Stadtparkbewegung kommunalisiert. Sodann entstanden Volksparks mit Sportanlagen, ästhetisch ausgerichtete Gartenschauen, die breit gefächerten Revierparks der 1970er Jahre und neue Parktypen im Emscher Landschaftspark. 1920 wird der Siedlungsverband Ruhrkohlenbezirk gegründet, der mit den Verbandsgrünflächen ein eigenes Instrument zum Freiraumschutz und die Kompetenz zur Fluchtlinien- bzw. Bebauungsplanung erhielt. Inzwischen darf der Verband, vor einigen Jahren in den Regionalverband Ruhr umgewandelt, zu kommunalen Planungen nur noch Stellungnahmen abgeben. Schon früh versuchte der Verband, industrielles Ödland zu begrünen. Nach den Bahndammbegrünungen vor dem Zweiten Weltkrieg hat er seit den 1950er Jahren Halden aufgeforstet, bis in den 1990er Jahren der Aufbau des Emscher Landschaftsparks begann. Zechen- und Industriebrachen werden in neue Parks, Halden und Mülldeponien in Landmarken und Freizeitlandschaften verwandelt. Zu fragen ist, was aus diesen Geschichten für die Freiraumpolitik folgt. Zwei gegensätzliche Thesen werden diskutiert: die Tragedy of the Commons, die im Gemeineigentum die Ursache ökologischer Probleme sieht, während der Common-Property-Ansatz gerade in gemeinschaftlichen Nutzungen einen Ansatz für Problemlösungen sieht. Dabei liegt eine Besonderheit von Freiräumen in ihrem hohen Öffentlichkeitsgrad, d.h. dass sie von vielen Menschen genutzt werden und gleichzeitig mehrere, z.B. produktive, ökologische, politische oder berufliche Funktionen erfüllen. Untersucht wird, inwieweit erfolgreich gesicherte Freiflächen Merkmale von stabilen Common-Property-Institutionen tragen, d.h. welche Funktionen die Freiräume erfüllen, wie ihre Nutzung geregelt ist und vor allem welchen Einfluss die Nutzer auf Entscheidungen haben. Thesenhaft lässt sich zusammenfassen, dass ein Teil der Freiräume sein Wachstum einer derzeit unverzichtbaren Funktion verdankt, nämlich der Camouflage von Müll und Altlasten, die eine bauliche Nutzung ausschließen. Andere Freiräume verdanken ihren Bestand ihren vielfältigen Nutzungen, zur Erholung, durch Denkmäler, für Veranstaltungen, aber auch der Wertsteigerung für umliegende Wohngebiete. Ein kleiner Teil der Freiräume hat tatsächlich einen Common-Property-Charakter: Kleingartenanlagen, die von bürgerschaftlichen Gruppen gegründeten Parks sowie die Flächen, die durch Bürgerinitiativen o.ä. gegen eine bauliche Umnutzung verteidigt werden. Grund genug, um die Idee eines Netzwerks von Parkvereinen aufzugreifen, die sich von bürgerschaftlicher Seite aus für Freiräume einsetzen können.
Resumo:
In der vorliegenden Arbeit wird nach Wegen zur Steigerung der Effektivität von Implementationsprozessen umfassender IT-Anwendungen in großen Kommunalverwaltungen gesucht, da nach vorliegenden Schätzungen allenfalls 10 % der großen IT-Projekte der öffentlichen Verwaltungen zielkonform und erfolgreich umgesetzt werden. Analysen zeigen, dass die in solchen Prozessen auftretenden Interdependenzen von Technologie, Organisation und Mensch oft nicht angemessen berücksichtigt wurden. Die zentrale Fragestellung der vorliegenden Untersuchung lautet daher, ob ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessoptimierung im Sinne eines funktionalen Wirksamkeitstests mit einer ganzheitlichen Betrachtung von technologischen, organisatorischen und sozial-humanen Wirkungsfaktoren bei intensiver Einbeziehung von eigenem Personal der Anwendungsorganisation den Implementierungserfolg größerer IT-Vorhaben erhöhen kann. Als methodischer Ansatz wurde eine Fallstudie gewählt (Implementierung von eAkten und SOA). Der Implementierungsverlauf ist methodisch in eine vorgelagerte ablauforganisatorische Prozessoptimierung und in eine nachgelagerte informationstechnologische Umsetzungsphase (sog. IT-Labor) gegliedert. Die Fallstudie legt den Schluss nahe, dass ein IT-Labor mit einer vorgelagerten ablauforganisatorischen Prozessanalyse zum Erfolg der Implementation wesentlich beitragen kann. Zudem zeigte sich, dass eine serviceorientierte Architektur zur prozessorientierten ganzheitlichen technologischen Systemgestaltung die Integration vorhandener IT-Anwendungen fördern kann. Die beschriebene IT-Laborstrategie kann im Ergebnis als ein erprobter Weg zur erfolgreichen Implementierung komplexer IT-Vorhaben empfohlen werden. Aufgrund der Analyse können einige kritische Erfolgsfaktoren für einen späteren Produktivbetrieb identifiziert werden: - Eigene Personalressourcen mit den zugehörigen Lernprozessen sind unverzichtbar, - In diesem Kontext sind auch die zugehörigen organisatorischen und technologischen Voraussetzungen zu schaffen, - Eventuell auftretende Qualifikationsdefizite der Anwender können in Zusammenarbeit mit externen Unternehmen und IT-Dienstleistern im Verbund mit den eigenen Projektmitgliedern zeitnah kompensiert werden. Die angewandte Implementierungs-Methodik ist auf solche Fälle übertragbar, in denen eine Gebietskörperschaft ab der Aufgabenstruktur einer großen kreisfreien Stadt mit heterogenen und dezentralen IT- und Organisationsstrukturen unterschiedliche Fachverfahren in einem komplexen Verwaltungssystem ganzheitlich und prozessorientiert zusammenführen möchte. Grenzen können sich somit aus der Größe einer Gebietskörperschaft, dem konkreten Aufgabenprofil sowie der finanziellen Leistungsfähigkeit ergeben. Eine Transferfähigkeit unter sozialen Gesichtspunkten setzt voraus, dass neben externem Personal qualifiziertes internes Personal mit Fachwissen und Querschnitts-Know-How bereitgestellt wird. Räumlich und zeitlich setzt die Verallgemeinerungsfähigkeit eine analoge politische und administrative Struktur mit einem entsprechenden Entwicklungsstand voraus. Mit den Ergebnissen der vorliegenden Untersuchung können Behördenleiter, IT-Verantwortliche und Beratungsunternehmen künftig in vergleichbaren Fällen eine effektivere Implementierungsmethode wählen. In der weiteren verwaltungswissenschaftlichen Forschung auf diesem Gebiet können auf der Basis der vorgenommenen Untersuchung konkrete Erfahrungen zur IT-Implementierung erhoben und bewertet werden, um weitere Effektivitätsreserven zu identifizieren.
Resumo:
Ziel dieser wissenschaftlichen Hausarbeit ist es, Geschlechterrollen bürgerlicher Kinder zu untersuchen, die auf Atelierfotografien abgebildet sind. Dazu soll das phänomenologisch-hermeneutische Verfahren der „seriell-ikonografische[n] Fotoanalyse“ von Pilarczyk und Mietzner in einer empirischen Untersuchung genutzt werden. Erforscht wird damit, inwieweit sich die Darstellungen von Mädchen und Jungen unterscheiden. In meiner Untersuchung gehe ich folgendermaßen vor: Im zweiten Kapitel wird zunächst die Bedeutung der Fotografie für die Erziehungswissenschaft reflektiert. Dabei steht die Frage im Vordergrund: Welche Vorteile und Eigenarten hat die Fotografie im Bezug zu anderen Quellen? Besonders ihr Verhältnis zur Wirklichkeit und die Rolle des Zufalls machen es schwierig, sie als Primärquelle zu verwenden. Deshalb werden anschließend beide Faktoren untersucht. Darauf folgen (im dritten Kapitel) die Beschreibung des Modells der seriell-ikonografischen Analyse von Pilarczyk und Mietzner sowie Rezensionen zu diesem Ansatz und eine genaue Erläuterung, wie die Methode für diese Arbeit genutzt werden soll. Bevor das Verfahren jedoch zur Anwendung kommt, werden zunächst bürgerlicher Kontext und Struktur der bürgerlichen Familie - innerhalb deren sich die Kinder auf den Fotografien bewegen - dargestellt. Anschließend wird der Kontext der Atelierfotografie vorgestellt, um eine zeitgemäße Lesart der Kinderfotografien zu gewährleisten. Im sechsten Kapitel folgt die Analyse des von mir zusammengestellten Bildfundus. Die daraus gewonnen Hypothesen werden in einem Fazit zusammengefasst. Es schließt sich eine Überprüfung und Erweiterung der Hypothesen anhand von schriftlichen Quellen in Kapitel 7 an. Zusammenfassung der Ergebnisse sowie Ausblick sind im Schlusskapitel zu lesen.
Resumo:
Die Milchrinderzucht hat im ökologischen Landbau kein deutliches eigenes Profil. Üblicherweise wird auf Biobetrieben mit konventionellen Zuchtlinien gearbeitet, die meistens die Veranlagung zu hohen Milchleistungen haben. Diese Kühe können nicht immer adäquat gefüttert werden, weil das betriebseigene Futter der Biobetriebe nicht immer dem Bedarf der Tiere entspricht, aber möglichst wenig Futter zugekauft wird und nur wenig Kraftfutter eingesetzt werden darf. Energiemangel und gesundheitliche Probleme der Kühe können daraus resultieren. Daher braucht es neue Ansätze für die ökologische Milchrinderzucht, die besser berücksichtigen, dass die Tiere und ihre Umwelt zusammenpassen müssen und die die Tiergesundheit besser fördern. In den vergangenen 100 Jahren wurde der Umweltbezug der Tiere in der konventionellen Milchrinderzucht immer mehr vernachlässigt. Die Zucht wurde auf Produktionsleistungsmerkmale ausgerichtet. Es widerspricht jedoch dem Leitbild des Biolandbaus, nur einzelne Merkmale der Tiere zu fördern, ohne das ganze Tier und den ganzen Betrieb mit zu berücksichtigen. Es gibt bereits einige Ansätze für eine ökologische Milchrinderzucht, die den Bezug der Tiere zu ihrer Umwelt und ein ganzheitliches Tierverständnis einbeziehen (z. B. das Konzept der Lebensleistungszucht und die Linienzucht mit Kuhfamilien). Diese Ansätze sind jedoch nicht weit verbreitet und mit hohem Forschungs- und / oder Beratungsbedarf verbunden. Ein in der konventionellen Milchviehzucht immer wichtiger werdender Ansatz, der auch gut mit den Ideen des Biolandbaus übereinstimmt, ist die stärkere züchterische Gewichtung von Gesundheitsmerkmalen (teilweise anstelle der Produktionsleistung). Da die direkte Erfassung der Tier-gesundheit als Merkmal aufwändig ist, werden häufig Hilfsmerkmale für Gesundheit züchterisch bearbeitet. In der vorliegenden Arbeit wurden neue Hilfsmerkmale für die Zucht auf Gesundheit gesucht. Der Schwerpunkt wurde auf ethologische Merkmale gelegt, welche einen eigenaktiven Bezug der Tiere zu ihrer Umwelt zeigen sowie auf Eigenschaften, die in einem Zusammenhang mit Verdauungs- und Stoff-wechselprozessen stehen. Das Ziel der Untersuchungen war, die individuelle Ausprägung der beobachteten Eigenschaften und deren Zusammenhang zur Tiergesundheit zu ermitteln, um neue Merkmale für die Zucht auf eine gute Tiergesundheit zu identifizieren. Die Beobachtungen wurden über einen Zeitraum von 13 Monaten in einer Milchviehherde mit 60 Kühen auf einem biologisch-dynamischen Betrieb in der Schweiz durchgeführt. In zwei Projekten mit 27 bzw. 34 Tieren wurden das Wiederkäuverhalten, das Liegeverhalten, das Temperament, die Körperkondition (BCS) und die Kotbeschaffenheit untersucht. Die Untersuchungen wurden unter für alle beobachteten Tiere gleichen Praxisbedingungen durchgeführt. Die Gesundheit der Tiere wurde kontinuierlich anhand des Behandlungs-journals, der Tierarztrechnungen, der Milchleistungsprüfungsdaten und der Abkalbedaten erfasst und für jedes Tier in einem Gesundheitsindex zusammengefasst. Zusätzlich wurde ein Euter-gesundheitsindex berechnet, in dem nur die Eutererkrankungen berücksichtigt wurden. Die individuelle Konsistenz der beobachteten Eigenschaften wurde anhand der Reproduzier-barkeit der wiederholten Beobachtungen berechnet. Korrelationen zwischen dem Gesundheitsindex und den beobachteten Parametern und lineare, multivariate Regressionsanalysen mit dem Gesundheitsindex bzw. dem Eutergesundheitsindex als abhängige Variable wurden berechnet. Das Wiederkäuverhalten, das Liegeverhalten, die Kotbeschaffenheit und das Temperament der Tiere waren individuell konsistent. Die Variation der Wiederkäugeschwindigkeit, die Anzahl Abliegevorgänge und die Höhe der BCS-Noten (1. Quartil) waren positiv und die Spannweite der BCS-Noten war negativ mit der Tiergesundheit korreliert. Zwischen einem ruhigen Temperament der Kühe und der Eutergesundheit zeigte sich eine positive Korrelation. Die Regressionsanalysen ergaben, dass die Variation der Tiergesundheit im Projekt 1 durch die Variation der Wiederkäugeschwindigkeit und die Anzahl Abliegevorgänge zu 23% und im Projekt 2 durch die Höhe und die Spannweite der BCS-Noten zu 32% erklärt werden konnte. Die Variation der Eutergesundheit konnte durch das Temperament zu 24% erklärt werden. Die Ergebnisse zum Temperament und zur Körperkondition sind für die Tierzucht im Biolandbau interessant, zumal sie einfach zu erfassen sind und in anderen Studien ihre relativ hohe Erblichkeit festgestellt wurde. Die beiden Merkmalskomplexe zeigen zudem, wie gut das Tier sich an seine Umwelt anpassen kann. Das ist unter nichtstandardisierten Umweltbedingungen, wie sie auf Biobetrieben üblich sind, wichtig. Für die Umsetzung in der Zucht auf Betriebsebene braucht es Beratung. Um diese Eigenschaften in Zuchtprogramme auf Populationsebene zu integrieren, sind weitere Forschungsarbeiten zur Methodik einer routinemässigen Erhebung von BCS- und Temperamentsdaten und zur Implementation nötig.
Resumo:
Diese Arbeit behandelt die Problemstellung der modellbasierten Fehlerdiagnose für Lipschitz-stetige nichtlineare Systeme mit Unsicherheiten. Es wird eine neue adaptive Fehlerdiagnosemethode vorgestellt. Erkenntnisse und Verfahren aus dem Bereich der Takagi-Sugeno (TS) Fuzzy-Modellbildung und des Beobachterentwurfs sowie der Sliding-Mode (SM) Theorie werden genutzt, um einen neuartigen robusten und nichtlinearen TS-SM-Beobachter zu entwickeln. Durch diese Zusammenführung lassen sich die jeweiligen Vorteile beider Ansätze miteinander kombinieren. Bedingungen zur Konvergenz des Beobachters werden als lineare Matrizenungleichungen (LMIs) abgeleitet. Diese Bedingungen garantieren zum einen die Stabilität und liefern zum anderen ein direktes Entwurfsverfahren für den Beobachter. Der Beobachterentwurf wird für die Fälle messbarer und nicht messbarer Prämissenvariablen angegeben. Durch die TS-Erweiterung des in dieser Arbeit verwendeten SM-Beobachters ist es möglich, den diskontinuierlichen Rückführterm mithilfe einer geeigneten kontinuierlichen Funktion zu approximieren und dieses Signal daraufhin zur Fehlerdiagnose auszuwerten. Dies liefert eine Methodik zur Aktor- und Sensorfehlerdiagnose nichtlinearer unsicherer Systeme. Gegenüber anderen Ansätzen erlaubt das Vorgehen eine quantitative Bestimmung und teilweise sogar exakte Rekonstruktion des Fehlersignalverlaufs. Darüber hinaus ermöglicht der Ansatz die Berechnung konstanter Fehlerschwellen direkt aus dem physikalischen Vorwissen über das betrachtete System. Durch eine Erweiterung um eine Betriebsphasenerkennung wird es möglich, die Schwellenwerte des Fehlerdiagnoseansatzes online an die aktuelle Betriebsphase anzupassen. Hierdurch ergibt sich in Betriebsphasen mit geringen Modellunsicherheiten eine deutlich erhöhte Fehlersensitivität. Zudem werden in Betriebsphasen mit großen Modellunsicherheiten Falschalarme vermieden. Die Kernidee besteht darin, die aktuelle Betriebsphase mittels eines Bayes-Klassikators in Echtzeit zu ermitteln und darüber die Fehlerschwellen an die a-priori de nierten Unsicherheiten der unterschiedlichen Betriebsphasen anzupassen. Die E ffektivität und Übertragbarkeit der vorgeschlagenen Ansätze werden einerseits am akademischen Beispiel des Pendelwagens und anderseits am Beispiel der Sensorfehlerdiagnose hydrostatisch angetriebener Radlader als praxisnahe Anwendung demonstriert.
Resumo:
In der vorliegenden Arbeit wurde untersucht, wie Führung zur Bewältigung von Unternehmenskrisen und Umsetzung von Veränderungen im Kontext des Interim Management beitragen kann. Dazu wurde die Theorie transformationaler Führung um aufgabenbezogene und indirekte Führung und den Einsatz von Positionsmacht ergänzt. Damit wurden diese erfolgskritischen Führungsdimensionen erstmals in einem gemeinsamen theoretischen Rahmen verbunden und die Auswirkungen einer kombinierten Anwendung untersucht. Dieser neue Ansatz wurde als „Total Range of Leadership“ bezeichnet. In der vorliegenden Untersuchung konnten neue Erkenntnisse zum Kontext und den Erfolgsfaktoren des Interim Management sowie zu den Auswirkungen und Wirkungsmechanismen transformationaler Führung und des Total Range of Leadership gewonnen werden. Die Untersuchungsergebnisse deuten darauf hin, dass Interim Management ein hoch effektives Veränderungsinstrument ist. Als erfolgsrelevante Rahmenbedingungen wurden die Ausstattung der Interim Manager mit umfassenden Vollmachten sowie die Unterstützung durch die Auftraggeber, als wichtigster Erfolgsfaktor des Interim Management aber eindeutig die Anwendung transformationaler Führung und des Total Range of Leadership identifiziert. Die Anwendung transformationaler Führung im Rahmen des Total Range of Leadership wirkt sich positiv auf Persönlichkeit, Einstellungen, Kompetenz und Verhalten der Mitarbeiter sowie Organisationsstruktur, Unternehmenskultur, organisationale Lernfähigkeit und finanziellen und marktbezogenen Erfolg von Unternehmens aus. Dabei erzielt transformationale Führung die bei Weitem größte Wirkung aller Führungsdimensionen. Es konnte aufgezeigt werden, dass transformationale Führung diese Wirkung nur in Verbindung mit der kompetenten Anwendung von transaktionaler, aufgabenbezogener und indirekter Führung entfalten kann. Die Untersuchungsergebnisse deuten außerdem darauf hin, dass eine transformationale Führungsbeziehung nur dann entstehen kann, wenn die Mitarbeiter Vertrauen in die professionelle Kompetenz und die Integrität ihrer Führungskraft fassen. Als normative Grundlagen transformationaler Führung wurden die Gewährleistung der Wohlfahrt und des Nutzens der Geführten sowie der Bezug auf und die Berücksichtigung von geteilten und allgemein akzeptierte Werten, insbesondere der distributiven und prozeduralen Gerechtigkeit, identifiziert. Insgesamt deuten die Erkenntnisse der Untersuchung darauf hin, dass mit dem Total Range of Leadership ein ganzheitlicher Führungsansatz entwickelt wurde, der alle aktiven und positiven Führungsverhaltensweisen umfasst, die zur Bewältigung von Krisen und Durchführung von Veränderungen in Unternehmen sowie für effektive Führung überhaupt erforderlich sind.
Resumo:
Im Zuge der Novellierung der Gasnetzzugangsverordnung sowie des Erneuerbare-Energien-Gesetzes entwickelte sich die Einspeisung von Biomethan in das Erdgasnetz als alternative Investitionsmöglichkeit der Erneuerbare-Energien-Branche. Als problematisch erweist sich dabei die Identifikation und Strukturierung einzelner Risikofaktoren zu einem Risikobereich, sowie die anschließende Quantifizierung dieser Risikofaktoren innerhalb eines Risikoportfolios. Darüber hinaus besteht die Schwierigkeit, diese Risikofaktoren in einem cashflowbasierten und den Ansprüchen der Investoren gewachsenem Risikomodell abzubilden. Zusätzlich müssen dabei Wechselwirkungen zwischen einzelnen Risikofaktoren berücksichtigt werden. Aus diesem Grund verfolgt die Dissertation das Ziel, die Risikosituation eines Biomethanprojektes anhand aggregierter und isolierter Risikosimulationen zu analysieren. Im Rahmen einer Diskussion werden Strategien und Instrumente zur Risikosteuerung angesprochen sowie die Implementierungsfähigkeit des Risikomodells in das Risikomanagementsystem von Investoren. Die Risikomaße zur Beschreibung der Risikoauswirkung betrachten die Shortfälle einer Verteilung. Dabei beziehen sich diese auf die geplanten Ausschüttungen sowie interne Verzinsungsansprüche der Investoren und die von Kreditinstituten geforderte minimale Schuldendienstdeckungsrate. Im Hinblick auf die Risikotragfähigkeit werden liquiditätsorientierte Kennzahlen hinzugezogen. Investoren interessieren sich vor dem Hintergrund einer gezielten Risikosteuerung hauptsächlich für den gefahrvollsten Risikobereich und innerhalb dessen für den Risikofaktor, der die größten Risikoauswirkungen hervorruft. Zudem spielt der Zeitpunkt maximaler Risikoauswirkung eine große Rolle. Als Kernaussage dieser Arbeit wird festgestellt, dass in den meisten Fällen die Aussagefähigkeit aggregierter Risikosimulationen durch Überlagerungseffekte negativ beeinträchtigt wird. Erst durch isoliert durchgeführte Risikoanalysen können diese Effekte eliminiert werden. Besonders auffällig gestalten sich dabei die Ergebnisse der isoliert durchgeführten Risikoanalyse des Risikobereichs »Politik«. So verursacht dieser im Vergleich zu den übrigen Risikobereichen, wie »Infrastruktur«, »Rohstoffe«, »Absatzmarkt« und »Finanzmarkt«, die geringsten Wahrscheinlichkeiten avisierte Planwerte der Investoren zu unterschreiten. Kommt es jedoch zu einer solchen Planwert-Unterschreitung, nehmen die damit verbundenen Risikoauswirkungen eine überraschende Position im Risikoranking der Investoren ein. Hinsichtlich der Aussagefähigkeit des Risikomodells wird deutlich, dass spezifische Risikosichtweisen der Investoren ausschlaggebend dafür sind, welche Strategien und Instrumente zur Risikosenkung umgesetzt werden. Darüber hinaus wird festgestellt, dass die Grenzen des Risikomodells in der Validität der Expertenmeinungen und dem Auffinden einer Optimallösung zu suchen sind.
Resumo:
Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.
Resumo:
Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.