968 resultados para algebraic bethe-ansatz
Resumo:
Im Rahmen der Fallstudie Harz sollte an der Schnittstelle zwischen Grundlagenforschung und angewandter Forschung ein Beitrag zur Klärung der Frage geleistet werden, inwieweit zwei Zuläufe der Sösetalsperre im Westharz versauert bzw. versauerungsgefährdet sind; aus diesem Stausee wird Trinkwasser für mehrere Gemeinden in Norddeutschland gewonnen. Die Belastung des fast vollständig bewaldeten Einzugsgebiets der Sösetalsperre mit luftbürtigen Schadstoffen (Saurer Regen) zählte zu den höchsten in Mitteleuropa. An jeweils drei Untersuchungsstellen der beiden Bäche Alte Riefensbeek (R1 bis R3) und Große Söse (S1 bis S3) wurden zwischen März 1987 und November 1988 Proben aus Moospolstern und dem hyporheischen Interstitial entnommen und physikalisch, chemisch und biologisch untersucht. Ergänzend wurden Wasserproben zwischen März 1986 und Oktober 1991 sowie vom April 1998 ebenso wie qualitative Fänge von Makroinvertebraten zwischen November 1986 und Juli 1990 sowie vom April 1998 ausgewertet. Die Analyse der tierischen Besiedlung der Moos- und Interstitialproben beschränkte sich auf die taxonomischen Gruppen Turbellaria (Strudelwürmer), Mollusca (Weichtiere), Amphipoda (Flohkrebse), Ephemeroptera (Eintagsfliegen), Plecoptera (Steinfliegen), Heteroptera (Wanzen), Megaloptera (Schlammfliegen), Coleoptera (Käfer), Trichoptera (Köcherfliegen) und Diptera (Zweiflügler). Der Grundsatz, daß normalverteilte und nicht normalverteilte Daten statistisch unterschiedlich behandelt werden müssen, wurde konsequent angewandt. Am Beispiel der Choriotopstruktur wurde gezeigt, daß die Auswahl des Analyseverfahrens das Ergebnis der ökologischen Interpretation multivariater statistischer Auswertung beeinflußt. Die Daten der Korngrößen-Verteilung wurden vergleichend einer univariaten und einer multivariaten statistischen Analyse unterworfen. Mit dem univariaten Verfahren wurden die Gradienten der ökologisch relevanten Korngrößen-Parameter eher erkannt als mit dem multivariaten Verfahren. Die Auswirkungen von Gewässerversauerung sowie anderer Umweltfaktoren (insgesamt 42 Faktoren) auf die Lebensgemeinschaften wurden anhand der Parameter Artenzahl, Besiedlungsdichte, Körpergröße und Biomasse untersucht. Abundanz, Biomasse und Körpergröße sowie die Umweltfaktoren wurden auf einem horizontalen Gradienten, d.h. im Längslauf der Bäche, und auf einem vertikalen Gradienten, d.h. fließende Welle / Bryorheon / Benthon versus Hyporheon, untersucht. Es wurde ein terminologisches System für die Kompartimente in der Fließgewässer-Aue vorgeschlagen, das in sich einheitlich ist. Es wurde ein neuer Moos-Vitalitätsindex für die Moospolster vorgestellt. Es wurden Bestimmungsschlüssel für die Larven der Chloroperlidae (Steinfliegen-Familie) und der Empididae (Tanzfliegen) in den beiden Harzbächen entwickelt. Die untersuchten Bachstrecken waren frei von Abwasserbelastung. An zwei Stellen wurde Wasser für einen Forellenteich ausgeleitet. Abgesehen von zwei meterhohen Abstürzen in der Großen Söse waren wasserbauliche Veränderungen ohne große Bedeutung. Das Abfluß-Regime war insofern nicht mehr natürlich, als beide Bäche in das System der bergbaulichen Bewässerungsgräben des Oberharzes eingebunden sind. Die Söse hatte ein F-nivopluviales Abfluß-Regime, der abflußreichste Doppelmonat war der März / April, die Unregelmäßigkeit des Abfluß-Regimes war sehr hoch, die Vorhersagbarkeit sehr niedrig, die monatlichen Abfluß-Maxima wiesen eine sehr geringe Konstanz auf. Der Zeitraum der biologischen Probenahme wurde von überdurchschnittlich vielen Tagen mit mäßig erhöhten Abflüssen geprägt, sehr große Hochwasser-Wellen fehlten aber. Die Abfluß-Dynamik wurde statistisch beschrieben. Das hydraulische Regime wurde anhand der Meßgrößen Fließgeschwindigkeit, Fließkraft und FROUDE-Zahl dargestellt. Der Zusammenhang zwischen Abfluß und Fließgeschwindigkeit auf der einen Seite und der Korngrößen-Verteilung auf der anderen Seite wurde statistisch untersucht, ebenfalls zwischen dem Abfluß und dem Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel sowie dem Wasserchemismus. In den Phasen ohne Hochwasser hatte das Hyporheal die Funktion einer Senke für Feinstkörner. Das Bachbett der Alten Riefensbeek war stabiler als das der Großen Söse. Insgesamt gesehen war das hyporheische Sediment in den quellnahen Abschnitten grobkörniger und auf den quellfernen Strecken feinkörniger. Der prozentuale Anteil der Feinstkörner im Hyporheal und Benthal nahm aber im Längslauf der Bäche ab. Dies ist ungewöhnlich, konnte aber nicht plausibel mit geologischen und hydrologischen Meßgrößen erklärt werden. Beide Bäche waren sommerkalt. Der Einfluß der Wassertemperatur auf die Larvalentwicklung wurde beispielhaft an den Taxa Baetis spp. und Leuctra gr. inermis untersucht. Es gab eine Tendenz, daß der Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel vom Benthal in das Hyporheal anstieg. Dies war ein weiterer Hinweis darauf, daß das Hyporheal die Funktion einer Senke und Vorratskammer für Nährstoffe hat. Der Zusammenhang zwischen partikulärer und gelöster Kohlenstoff-Fraktion wurde diskutiert. Im Hyporheon war die Nitrifikation nicht stärker als in der fließenden Welle. Es gab Hinweise, daß die sauren pH-Werte in der Großen Söse die Nitrifikation hemmten. Die Valenzen der Moos- und Tier-Taxa bezüglich Fließgeschwindigkeit, pH-Wert, Alkalinität sowie der Gehalte von Sauerstoff, Calcium, Magnesium, Kalium und Natrium wurden zusammengestellt. Das hyporheische Sediment war sehr grob und hatte eine hohe Porosität. Der Austausch zwischen fließender Welle und hyporheischem Wasser konnte deshalb sehr schnell erfolgen, es gab keine intergranulare Sprungschicht, die physikalischen und chemischen Tiefengradienten waren in den meisten Fällen gar nicht ausgeprägt oder nur sehr flach. Die Wassertemperatur des Freiwassers unterschied sich nicht signifikant von derjenigen im hyporheischen Wasser. Es gab -- von wenigen Ausnahmen bei pH-Wert, Leitfähigkeit und Sauerstoffgehalt abgesehen -- keine signifikanten Unterschiede zwischen dem Wasserchemismus der fließenden Welle und dem des Hyporheals. Die physikalischen und chemischen Voraussetzungen für die Refugialfunktion des Hyporheons waren deshalb für versauerungsempfindliche Taxa nicht gegeben. In der Tiefenverteilung der untersuchten Tiergruppen im Hyporheal lag das Maximum der Abundanz bzw. Biomasse häufiger in 10 cm als in 30 cm Tiefe. Daraus läßt sich aber keine allgemeine Gesetzmäßigkeit ableiten. Es wurde durchgehend die Definition angewendet, daß die Gewässerversauerung durch den Verlust an Pufferkapazität charakterisiert ist. Saure Gewässer können, müssen aber nicht versauert sein; versauerte Gewässer können, müssen aber nicht saures Wasser haben. Maßstab für das Pufferungsvermögen eines Gewässers ist nicht der pH-Wert, sondern sind die Alkalinität und andere chemische Versauerungsparameter. Der pH-Wert war auch operativ nicht als Indikator für Gewässerversauerung anwendbar. Die chemische Qualität des Bachwassers der Großen Söse entsprach aufgrund der Versauerung nicht den umweltrechtlichen Vorgaben bezüglich der Parameter pH-Wert, Aluminium, Eisen und Mangan, bzgl. Zink galt dies nur an S1. In der Alten Riefensbeek genügte das Hyporheal-Wasser in 30 cm Tiefe an R2 bzgl. des Sauerstoff-Gehalts nicht den umweltrechtlichen Anforderungen. Nur im Freiwasser an R1 genügten die Ammonium-Werte den Vorgaben der EG-Fischgewässer-Richtlinie, der Grenzwert wurde an allen anderen Meßstellen und Entnahmetiefen überschritten. Das BSB-Regime in allen Entnahmetiefen an R2, im Freiwasser an R3 und S1, im Hyporheal an R1 sowie in 30 cm Tiefe an R3 genügte nicht den Anforderungen der Fischgewässer-Richtlinie. Der Grenzwert für Gesamt-Phosphor wurde an S3 überschritten. In der Großen Söse war der Aluminium-Gehalt so hoch, daß anorganisches und organisches Aluminium unterschieden werden konnten. Besonders hohe Gehalte an toxischem anorganischen Aluminium wurden an Tagen mit Spitzen-Abflüssen und Versauerungsschüben gemessen. Erst die Ermittlung verschiedener chemischer Versauerungsparameter zeigte, daß auch die alkalischen Probestellen R2 und R3 mindestens versauerungsempfindlich waren. Die Messung bzw. Berechnung von chemischen Versauerungsparametern sollte deshalb zum Routineprogramm bei der Untersuchung von Gewässerversauerung gehören. Zu Beginn des Untersuchungsprogramms war angenommen worden, daß die mittleren und unteren Abschnitte der Alten Riefensbeek unversauert sind. Dieser Ansatz des Untersuchungsprogramms, einen unversauerten Referenzbach (Alte Riefensbeek) mit einem versauerten Bach (Große Söse) zu vergleichen, mußte nach der Berechnung von chemischen Versauerungsindikatoren sowie der Analyse der Abundanz- und Biomasse-Werte modifiziert werden. Es gab einen Versauerungsgradienten entlang der Probestellen: R1 (unversauert) R2 und R3 (versauerungsempfindlich bis episodisch leicht versauert) S2 und S3 (dauerhaft versauert) S1 (dauerhaft stark versauert). An S1 war das Hydrogencarbonat-Puffersystem vollständig, an S2 und S3 zeitweise ausgefallen. Die Versauerungslage an R2 und R3 war also schlechter als vorausgesehen. Unterschiede im Versauerungsgrad zwischen den Meßstellen waren nicht so sehr in unterschiedlichen Eintragsraten von versauernden Stoffen aus der Luft begründet, sondern in unterschiedlichen Grundgesteinen mit unterschiedlichem Puffervermögen. Der Anteil der verschiedenen sauren Anionen an der Versauerung wurde untersucht, die chemischen Versauerungsmechanismen wurden mit Hilfe von Ionenbilanzen und verschiedenen Versauerungsquotienten analysiert. Die beiden untersuchten Bäche waren von anthropogener Versauerung betroffen. Dabei spielte die Schwefel-Deposition (Sulfat) eine größere Rolle als die Stickstoff-Deposition (Nitrat). Die Probestelle S1 war immer schon in unbekanntem Maß natürlich sauer. Dieser natürlich saure Zustand wurde von der hinzugekommenen anthropogenen Versauerung bei weitem überragt. Die wenigen gewässerökologischen Daten, die im Wassereinzugsgebiet der Söse vor 1986 gewonnen wurden, deuten darauf hin, daß die Versauerung in den 70er und in der ersten Hälfte der 80er Jahre vom Boden und Gestein in die Bäche durchgeschlagen war. Dieser Versauerungsprozeß begann vermutlich vor 1973 in den Quellen auf dem Acker-Bruchberg und bewegte sich im Laufe der Jahre immer weiter talwärts in Richtung Trinkwasser-Talsperre. Der Mangel an (historischen) freilandökologischen Grundlagendaten war nicht nur im Untersuchungsgebiet, sondern ist allgemein in der Versauerungsforschung ein Problem. Wenn sich das Vorkommen von nah verwandten Arten (weitgehend) ausschließt, kann dies an der Versauerung liegen, z.B. war die Alte Riefensbeek ein Gammarus-Bach, die Große Söse ein Niphargus-Bach; dieses muß aber nicht an der Versauerung liegen, z.B. fehlte Habroleptoides confusa im Hyporheos an R3, Habrophlebia lauta hatte dagegen ihr Abundanz- und Biomasse-Maximum an R3. Zugleich lag das Maximum des prozentualen Anteils von Grobsand an R3, eine mögliche Ursache für diese interspezifische Konkurrenz. Die biologische Indikation von Gewässerversauerung mit Hilfe der Säurezustandsklassen funktionierte nicht in den beiden Harzbächen. Es wurde deshalb ein biologischer Versauerungsindex vorgeschlagen; dieser wurde nicht am pH-Wert kalibriert, sondern an der chemischen Versauerungslage, gekennzeichnet durch die Alkalinität und andere chemische Meßgrößen der Versauerung. Dafür wurden aufgrund der qualitativen und quantitativen Daten die häufigeren Taxa in die vier Klassen deutlich versauerungsempfindlich, mäßig versauerungsempfindlich, mäßig versauerungstolerant und deutlich versauerungstolerant eingeteilt. Es reicht nicht aus, die biologischen Folgen von Gewässerversauerung sowie Veränderungen in der Nährstoff-Verfügbarkeit und im sonstigen Wasserchemismus nur anhand der Artenzahl oder des Artenspektrums abzuschätzen. Vielmehr müssen quantitative Methoden wie die Ermittlung der Abundanzen angewandt werden, um anthropogene und natürliche Störungen des Ökosystems zu erfassen. Es wurde eine Strategie für die behördliche Gewässergüteüberwachung von Bachoberläufen vorgeschlagen, die flächendeckend die Versauerungsgefährdung erfassen kann. Die Auswirkungen der zeitlichen Dynamik des Versauerungschemismus wurden am Beispiel des versauerungsempfindlichen Taxons Baetis spp. (Eintagsfliegen) dargestellt. An S2 und S3 kam es zu starken Versauerungsschüben. Baetis konnte sich nicht ganzjährig halten, sondern nur in versauerungsarmen Phasen im Sommer und im Herbst; es gab einen Besiedlungskreislauf aus Ausrottungs- und Wiederbesiedlungsphasen. Die temporäre Population von Baetis an S2 und S3 bestand nur aus ersten Larvenstadien. Die Probestellen wurden auf horizontalen Gradienten der Umweltfaktoren angeordnet. Bei einigen Parametern gab es keinen Gradienten (z.B. Sauerstoff-Gehalt), bei anderen Parametern waren die Meßstellen auf sehr flachen Gradienten angeordnet (z.B. C:N-Quotient der Feinstkörner), bei den restlichen Meßgrößen waren die Gradienten sehr deutlich (z.B. Alkalinität). Bei den Längsgradienten von Abundanz und Biomasse waren alle Möglichkeiten vertreten: Zunahme (z.B. Leuctra pseudosignifera), Abnahme (z.B. Gammarus pulex), Maximum an der mittleren Probestelle (z.B. Leuctra pseudocingulata) und kein signifikanter Trend (z.B. Nemoura spp.). Abundanz und Biomasse zahlreicher taxonomischer Einheiten hatten ihr Maximum im Längslauf an den quellnächsten Probestellen R1 und S1, z.B. Protonemura spp. und Plectrocnemia spp. Die Lebensgemeinschaften an R1 und S1 waren allerdings völlig unterschiedlich zusammengesetzt. Die häufig vertretene Annahme, versauerte Gewässer seien biologisch tot, ist falsch. Unter Anwendung des 3. biozönotischen Grundprinzips wurde das Maximum von Abundanz und Biomasse in den quellnahen Abschnitten mit dem eustatistischen (stabilen) Regime von Wassertemperatur, Abfluß und Protonen-Gehalt, in der Alten Riefensbeek auch von Alkalinität und ALMER-Relation erklärt. Aufgrund der natürlichen und anthropogenen Störungen war im Längslauf der untersuchten Bäche keine natürliche biozönotische Gliederung des Artenbestands erkennbar. Die Korrelationsberechnungen zwischen den Umweltfaktoren und der Taxazahl ergaben, daß in erster Linie versauerungsrelevante Parameter -- Gehalte saurer Anionen, basischer Kationen und von Metallen, Alkalinität usw. -- die höchsten Korrelationskoeffizienten mit der Taxa-Zahl hatten; unter den natürlichen Meßgrößen zählten nur die Gehalte von DOC und TIC sowie der Anteil der Sande zu der Gruppe mit den höchsten Korrelationskoeffizienten. Die Korrelationsberechnungen zwischen den Umweltfaktoren und den Abundanzen ergab dagegen, daß die quantitative Zusammensetzung der Lebensgemeinschaft nicht nur durch die anthropogene Gewässerversauerung, sondern mindestens genauso durch einige natürliche Meßgrößen beeinflußt wurde. Es gab in den Harzbächen keinen ökologischen Superfaktor, der die quantitative Zusammensetzung der Lebensgemeinschaft überwiegend bestimmte. Auch die Meßgrößen der anthropogenen Gewässerversauerung waren nicht solch ein Superfaktor. Einen ähnlich hohen Einfluß auf die quantitative Zusammensetzung der Lebensgemeinschaft hatten die geologisch bestimmten Umweltfaktoren Leitfähigkeit und TIC-Gehalt, der von der Landnutzung bestimmte DOC-Gehalt sowie der Chlorid-Gehalt, der geologisch, möglicherweise aber auch durch den Eintrag von Straßensalz bestimmt wird. Die Mischung von anthropogenen und natürlichen Faktoren wurde in einem Modell der Wirkung von abiotischen Faktoren auf Bryorheos und Hyporheos dargestellt. Als Beispiel für die zeitliche Nutzung ökologischer Nischen wurde die Verteilung der Larven und Adulten der Dryopidae (Hakenkäfer) im Hyporheos und Bryorheos untersucht. Die Larven wurden vorzugsweise im Hyporheon, die Adulten im Bryorheon angetroffen. Die untersuchten Taxa wurden in die Varianten bryorheobiont, bryorheophil, bryorheotolerant, bryorheoxen und bryorheophob bzw. hyporheobiont, hyporheophil, hyporheotolerant, hyporheoxen und hyporheophob eingeteilt, um ihre räumliche Nutzung ökologischer Nischen zu beschreiben. Die gängige Lehrmeinung, daß das Hyporheon die Kinderstube benthaler Makroinvertebraten ist, konnte für zahlreiche Taxa bestätigt werden (z.B. Habrophlebia lauta). Für die bryorheophilen Taxa (z.B. Gammarus pulex und Baetis spp.) trifft diese Lehrmeinung in den beiden Harzbächen nicht zu. Vielmehr übernimmt das Bryorheon die Funktion einer Kinderstube. Die Larven von Plectrocnemia conspersa / geniculata sowie von Baetis spp. und Amphinemura spp. / Protonemura spp. neben Gammarus pulex zeigten eine Habitatbindung, die erstgenannte Gattung an das Hyporheal, die letztgenannten 3 Taxa an untergetauchte Moospolster (Bryorheal). Die Idee von der Funktion des Hyporheals als Kinderstube der Larven und Jungtiere, als Schutzraum gegen die Verdriftung durch Strömung und vor Fraßdruck durch Räuber sowie als Ort hohen Nahrungsangebots mußte für die letztgenannten 3 Taxa abgelehnt werden. Für sie übernahm das Bryorheal diese Aufgaben. Zwar waren die beiden Bäche oligotroph und die Nahrungsqualität der Feinstkörner im Hyporheal war niedrig. Die Abundanz- und Biomasse-Werte im Bryorheos und Hyporheos gehörten aber zu den weltweit höchsten. Es wurde das Paradoxon diskutiert, daß im Hyporheon der beiden Bäche Diatomeen-Rasen gefunden wurden, obwohl das Hyporheon lichtlos sein soll. Das Hyporheon wurde als ein Ökoton zwischen Benthon / Rheon und Stygon angesehen. Es wurden vier Haupttypen des Hyporheons beschrieben. Wegen des sehr unterschiedlichen Charakters des Hyporheons in verschiedenen Fließgewässern gibt es keinen einheitlichen Satz von abiotischen und biotischen Faktoren, mit denen das Hyporheon vom Benthon und Stygon abgegrenzt werden kann. In den beiden Harzbächen ähnelte das Hyporheon mehr dem Benthon als dem Stygon. Es konnte nicht anhand der chemischen Meßgrößen vom Benthon abgegrenzt werden, sondern anhand der physikalischen Meßgrößen Trübung und der Anteile von Feinsand und Schluffe/Tone sowie anhand der biologischen Parameter Summen-Abundanz und Summen-Biomasse. Aus der Typologie des Hyporheons folgt, daß ein bestimmtes Hyporheon nicht alle in der Literatur beschriebenen Funktionen innerhalb der Fließgewässer-Aue übernehmen kann. Es wurde ein Schema entwickelt, mit dem sich die optimale Liste der Parameter für die Untersuchung eines bestimmten Hyporheons auswählen läßt. Der Tendenz in der Fließgewässer-Ökologie, immer neue Konzepte zu entwickeln, die allgemeingültig sein sollen, wurde das Konzept vom individuellen Charakter von Fließgewässer-Ökosystemen entgegengestellt.
Resumo:
Die Stadt-Umland-Problematik ist kein neues oder für die Metropolregion Hamburg spezifisches Thema, sondern eine der klassischen, bundesweiten raumordnungspolitischen Fragestellungen. Unter den Vorzeichen der aktuellen und künftigen demografischen Entwicklung, einer globalen Standortkonkurrenz und immer engerer öffentlicher Finanzspielräume geht es allerdings heute weniger um die Steuerung eines quantitativen Flächenwachstums, sondern vielmehr um die offensive und qualitative Entwicklung und Einbindung aller regionalen Potenziale. Klassische Planungsinstrumente stoßen dabei zunehmend an ihre Grenzen. In dieser Publikation werden die Möglichkeiten neuartiger Formen kooperativer Strukturen umfassend aufgezeigt. Dies geschieht sowohl in einer Gegenüberstellung bisher bekannter Ansätze von stadt-regionalen Kooperationen wie auch, unter besonderer Berücksichtigung des ländergrenzenübergreifenden Aspektes, anhand der Metropolregion Hamburg. Diese wird auf die siedlungsstrukturelle, regionalplanerische sowie politische Ausgangssituationen eingehend untersucht sowie die daraus resultierenden Stärken und Schwächen aufgezeigt und bewertet. Aufbauend auf diese Untersuchung wird für die Metropolregion Hamburg ein möglicher Ansatz stadtregionaler Kooperation, das Modell der Nachbarschaftsforen, vorgestellt, die möglichen Handlungsfelder sowie -konflikte benannt und auf einen spezifischen Teilraum der Region angewendet.
Resumo:
Das von Maz'ya eingeführte Approximationsverfahren, die Methode der näherungsweisen Näherungen (Approximate Approximations), kann auch zur numerischen Lösung von Randintegralgleichungen verwendet werden (Randpunktmethode). In diesem Fall hängen die Komponenten der Matrix des resultierenden Gleichungssystems zur Berechnung der Näherung für die Dichte nur von der Position der Randpunkte und der Richtung der äußeren Einheitsnormalen in diesen Punkten ab. Dieses numerisches Verfahren wird am Beispiel des Dirichlet Problems für die Laplace Gleichung und die Stokes Gleichungen in einem beschränkten zweidimensionalem Gebiet untersucht. Die Randpunktmethode umfasst drei Schritte: Im ersten Schritt wird die unbekannte Dichte durch eine Linearkombination von radialen, exponentiell abklingenden Basisfunktionen approximiert. Im zweiten Schritt wird die Integration über den Rand durch die Integration über die Tangenten in Randpunkten ersetzt. Für die auftretende Näherungspotentiale können sogar analytische Ausdrücke gewonnen werden. Im dritten Schritt wird das lineare Gleichungssystem gelöst, und eine Näherung für die unbekannte Dichte und damit auch für die Lösung der Randwertaufgabe konstruiert. Die Konvergenz dieses Verfahrens wird für glatte konvexe Gebiete nachgewiesen.
Resumo:
During recent years, quantum information processing and the study of N−qubit quantum systems have attracted a lot of interest, both in theory and experiment. Apart from the promise of performing efficient quantum information protocols, such as quantum key distribution, teleportation or quantum computation, however, these investigations also revealed a great deal of difficulties which still need to be resolved in practise. Quantum information protocols rely on the application of unitary and non–unitary quantum operations that act on a given set of quantum mechanical two-state systems (qubits) to form (entangled) states, in which the information is encoded. The overall system of qubits is often referred to as a quantum register. Today the entanglement in a quantum register is known as the key resource for many protocols of quantum computation and quantum information theory. However, despite the successful demonstration of several protocols, such as teleportation or quantum key distribution, there are still many open questions of how entanglement affects the efficiency of quantum algorithms or how it can be protected against noisy environments. To facilitate the simulation of such N−qubit quantum systems and the analysis of their entanglement properties, we have developed the Feynman program. The program package provides all necessary tools in order to define and to deal with quantum registers, quantum gates and quantum operations. Using an interactive and easily extendible design within the framework of the computer algebra system Maple, the Feynman program is a powerful toolbox not only for teaching the basic and more advanced concepts of quantum information but also for studying their physical realization in the future. To this end, the Feynman program implements a selection of algebraic separability criteria for bipartite and multipartite mixed states as well as the most frequently used entanglement measures from the literature. Additionally, the program supports the work with quantum operations and their associated (Jamiolkowski) dual states. Based on the implementation of several popular decoherence models, we provide tools especially for the quantitative analysis of quantum operations. As an application of the developed tools we further present two case studies in which the entanglement of two atomic processes is investigated. In particular, we have studied the change of the electron-ion spin entanglement in atomic photoionization and the photon-photon polarization entanglement in the two-photon decay of hydrogen. The results show that both processes are, in principle, suitable for the creation and control of entanglement. Apart from process-specific parameters like initial atom polarization, it is mainly the process geometry which offers a simple and effective instrument to adjust the final state entanglement. Finally, for the case of the two-photon decay of hydrogenlike systems, we study the difference between nonlocal quantum correlations, as given by the violation of the Bell inequality and the concurrence as a true entanglement measure.
Resumo:
Unternehmen konkurrieren in einem globalen Wettbewerb um den Transfer neuer Technologien in erfolgreiche Geschäftsmodelle. Aus diesem Grund stehen sie zunehmend der Herausforderung gegenüber, technologische Potenziale frühzeitig zu identifizieren, zu bewerten und Strategien für das Erschließen dieser Potenziale zu entwickeln. Dies ist zentraler Gegenstand der Vorausschau und Planung neuer Technologiepfade. In der vorliegenden Arbeit wird gemeinsam mit vier Unternehmen ein Leitfaden für die Strategiefindung, Entwicklung und Kommerzialisierung neu aufkommender Technologien entwickelt und angewendet. Den Ausgangspunkt der Arbeit bildet eine systematische Aufarbeitung des Forschungsstandes der Vorausschau und Planung neuer Technologien. Anschließend wird ein Beschreibungsmodell der Entstehung neuer Technologiepfade in technologiebasierten Innovationssystemen entwickelt. Auf Basis dieses Modells werden unterschiedliche Kategorien von Einflussfaktoren definiert, die als Analyserahmen für die neu entstehende Technologie dienen. Auf Basis der in der Literatur dokumentierten Abläufe, Teamstrukturen und Methoden (z.B. Roadmaps, Szenarien, Datenbankanalysen) wird ein sechsstufiger Ansatz für die Durchführung der Vorausschau und Planung neuer Technologiepfade konzipiert. Dieser Ansatz wird in vier Firmen für die Vorausschau und Planung neuer Technologien angewendet. Die untersuchten Technologien lassen sich den Feldern Biotechnologie, Nanotechnologie, Umwelttechnologie und Sensorik zuordnen. Zentrales Ergebnis der Arbeit ist ein entsprechend der Erfahrungen in den Unternehmen angepasster Ansatz für die Vorausschau und Planung neuer Technologiepfade. Dieser Ansatz ist in Abhängigkeit von Unternehmens- und Technologiecharakteristika für die weitere Anwendung konkretisiert. Dabei finden die zu beteiligenden Organisationseinheiten, zu betrachtende Einflussfaktoren sowie anwendbare Methoden besondere Berücksichtigung. Die Arbeit richtet sich an Personen in Führungspositionen im Bereich des strategischen Technologiemanagements sowie der Forschung und Entwicklung in Unternehmen, die Strategien für neu aufkommende Technologien entwickeln. Weiterhin sind die Ergebnisse der Arbeit für Wissenschaftler auf dem Gebiet der Methoden zur Vorausschau und Strategieentwicklung für neue Technologien von Interesse.
Resumo:
Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Institutionalistische Theorien und hegemoniale Praktiken Globaler Politikgestaltung. Eine neue Beleuchtung der Prämissen Liberaler Demokratischer National-Staatlicher Ordnungen. Deutsche Zusammenfassung: Moderne Sozialwissenschaften, seien es Metatheorien der Internationalen Beziehungen, die Geschichte politischer Ökonomie oder Institutionentheorien, zeigen eine klare Dreiteilung von Weltanschauungen bzw. Paradigmen auf, die sich in allen „großen Debatten“ nachvollziehen lassen: Realismus, Liberalismus und Historischer Materialismus. Diese Grund legend unterschiedlichen Paradigmen lassen sich auch in aktuellen Ansätzen des Institutionalismus aufzeigen, liegen aber quer zu den von anderen Wissenschaftlern (Meyer, Rittberger, Hasenclever, Peters, Zangl) vorgenommenen Kategorisierungen der Institutionalismusschulen, die systemkritische Perspektiven in der Regel ignorieren oder vergleichsweise rudimentär diskutieren. Deshalb entwickelt diese Arbeit einen Vergleich von Institutionalismusschulen entlang der oben skizzierten Weltanschauungen. Das Ziel ist es, fundamentale Unterschiede zwischen den drei Paradigmen zu verdeutlichen und zu zeigen, wie ihre jeweiligen ontologischen und epistemologischen Prämissen die Forschungsdesigns und Methodologien der Institutionalismusschulen beeinflussen. In Teil I arbeite ich deshalb die Grund legenden Prämissen der jeweiligen Paradigmen heraus und entwickle in Teil II und III diesen Prämissen entsprechende Institutionalismus-Schulen, die Kooperation primär als Organisation von unüberwindbarer Rivalität, als Ergebnis zunehmender Konvergenz, oder als Ergebnis und Weiterentwicklung von Prozeduren der Interaktion versteht. Hier greife ich auf zeitgenössische Arbeiten anderer Autoren zurück und liefere damit einen Vergleich des aktuellen Forschungsstandes in allen drei Denktraditionen. Teil II diskutiert die zwei dominanten Institutionalismusschulen und Teil III entwickelt einen eigenen Gramscianischen Ansatz zur Erklärung von internationaler Kooperation und Institutionalisierung. Die übergeordnete These dieser Arbeit lautet, dass die Methodologien der dominanten Institutionalismusschulen teleologische Effekte haben, die aus dem Anspruch auf universell anwendbare, abstrahiert Konzepte resultieren und die Interpretation von Beobachtungen limitieren. Prämissen eines rational handelnden Individuums - entweder Konsequenzen kalkulierend oder Angemessenheit reflektierend – führen dazu, dass Kooperation und Institutionalisierung notwendiger Weise als die beste Lösung für alle Beteiligten in dieser Situation gelten müssen: Institutionen würden nicht bestehen, wenn sie nicht in der Summe allen Mitgliedern (egoistisch oder kooperativ motiviert) nützten. Durch diese interpretative „Brille“ finden wichtige strukturelle Gründe für die Verabschiedung internationaler Abkommen und Teile ihrer Effekte keine Berücksichtigung. Folglich können auch Abweichungen von erwarteten Ergebnissen nicht hinreichend erklärt werden. Meine entsprechende Hypothese lautet, dass systemkritische Kooperation konsistenter erklären können, da sie Akteure, Strukturen und die sie umgebenden Weltanschauungen selbst als analytische Kriterien berücksichtigen. Institutionalisierung wird dann als ein gradueller Prozess politischer Entscheidungsfindung, –umsetzung und –verankerung verstanden, der durch die vorherrschenden Institutionen und Interpretationen von „Realität“ beeinflusst wird. Jede politische Organisation wird als zeitlich-geographisch markierter Staatsraum (state space) verstanden, dessen Mandat die Festlegung von Prozeduren der Interaktion für gesellschaftliche Entwicklung ist. Politische Akteure handeln in Referenz auf diese offiziellen Prozeduren und reproduzieren und/oder verändern sie damit kontinuierlich. Institutionen werden damit als integraler Bestandteil gesellschaftlicher Entwicklungsprozesse verstanden und die Wirkungsmacht von Weltanschauungen – inklusive theoretischer Konzepte - berücksichtigt. Letztere leiten die Wahrnehmung und Interpretation von festgeschriebenen Regeln an und beeinflussen damit ihre empfundene Legitimation und Akzeptanz. Dieser Effekt wurde als „Staatsgeist“ („State Spirit“) von Montesquieu und Hegel diskutiert und von Antonio Gramsci in seiner Hegemonialtheorie aufgegriffen. Seine Berücksichtigung erlaubt eine konsistente Erklärung scheinbar irrationalen oder unangemessenen individuellen Entscheidens, sowie negativer Effekte konsensualer Abkommen. Zur Veranschaulichung der neu entwickelten Konzepte werden in Teil II existierende Fallstudien zur Welthandelsorganisation analysiert und herausgearbeitet, wie Weltanschauungen oder Paradigmen zu unterschiedlichen Erklärungen der Praxis führen. Während Teil II besonderes Augenmerk auf die nicht erklärten und innerhalb der dominanten Paradigmen nicht erklärbaren Beobachtungen legt, wendet Teil III die Gramscianischen Konzepte auf eben diese blinden Stellen an und liefert neue Einsichten. Im Ausblick wird problematisiert, dass scheinbar „neutrale“ wissenschaftliche Studien politische Positionen und Forderungen legitimieren und verdeutlicht im Sinne der gramscianischen Theorie, dass Wissenschaft selbst Teil politischer Auseinandersetzungen ist.
Resumo:
Im Rahmen der Arbeit wird ein Unterrichtskonzept für den Leistungskurs Stochastik in der gymnasialen Oberstufe vorgestellt, bei welchem Computersimulationen und Lernumgebungen mit der Software FATHOM über das gesamte Kurshalbjahr unterstützend eingesetzt werden. Der experimentelle Zugang zur Wahrscheinlichkeit ergänzt den theoretischen Zugang und soll im Sinn eines handlungsorientierten Lernens die Motivation der Schülerinnen und Schüler fördern. Das Unterrichtskonzept enthält drei Schwerpunktsetzungen: • Einstieg in den Stochastikkurs mit Simulationen • Binomialverteilung • Das Testen von Hypothesen Die Arbeit konzentriert sich in der Darstellung und der Analyse auf den Einstieg in den Stochastikkurs mit Simulationen und computergestützten Lernumgebungen. Der Erwerb der Simulations- und Fathomkompetenzen in der Einstiegsphase wird auf inhaltlicher Seite verknüpft mit dem Wahrscheinlichkeitsbegriff, mit dem Gesetz der großen Zahl, sowie mit weiteren stochastischen Grundlagen. Das Unterrichtskonzept zum Einstieg in das Kurshalbjahr Stochastik wird ausführlich vorgestellt, zu den beiden anderen genannten Schwerpunkten werden die entwickelten Unterrichtskonzepte knapp erläutert. Die ausführlich kommentierten Unterrichtsmaterialien zu allen drei Schwerpunkten sind als Band 2 der KaDiSto-Schriftenreihe publiziert. Im Rahmen unterrichtlicher Erprobungen wurden verschiedene empirische Untersuchungen durchgeführt. Bei diesen Untersuchungen liegt ein Schwerpunkt auf der Transkriptanalyse von Videos des Bildschirmgeschehens und der simultan hierzu aufgenommenen verbalen Kommunikation während der Schülerarbeitsphasen am Computer. Diese Videos ermöglichen tiefer gehende Einblicke in die Kompetenzentwicklung der Schülerinnen und Schüler, in auftretende Probleme bei der Erstellung der Computersimulationen und in den Umgang der Schülerinnen und Schüler mit den Aufgabenstellungen. Die Analyse ausgewählter Transkriptausschnitte wird eingebettet in die Schilderung des Unterrichtsverlaufs auf der Basis von Unterrichtsprotokollen. Weiter wird die Bearbeitung einer komplexen Simulationsaufgabe in einer notenrelevanten Klausur nach Abschluss der Einstiegsphase analysiert. Es werden die Ergebnisse eines Eingangstests vor Beginn der Einstiegsphase und eines Ausgangstests im Anschluss an die Einstiegsphase geschildert. Ergänzend werden die Ergebnisse einer Schülerbefragung vorgestellt. Zum Abschluss der Arbeit wird eine Gesamtbetrachtung des Unterrichtskonzepts vorgenommen, bei der die Stärken aber auch zentrale Probleme des Konzepts beschrieben und teilweise verallgemeinert werden. Aus diesen Betrachtungen werden weitere Entwicklungsmöglichkeiten des geschilderten Projekts abgeleitet. Die Arbeit verfolgt einen stark unterrichtspraktischen Ansatz. Das methodische Vorgehen ist im Bereich einer Design-Research-Studie angesiedelt. Der Autor selber ist Lehrer an dem Kasseler Oberstufengymnasium Jacob-Grimm-Schule und hat über einen längeren Zeitraum im Rahmen einer Abordnung in der Arbeitsgruppe Mathematik-Didaktik der Universität Kassel mitgearbeitet. Die Arbeit stellt die Dissertation des Verfassers dar, die an der Universität Kassel von Prof. Dr. Rolf Biehler betreut wurde. Sie ist identisch mit der Erstveröffentlichung 2008 im Franzbecker Verlag, Hildesheim, der der elektronischen Veröffentlichung im Rahmen von KaDiSto zugestimmt hat
Resumo:
The aim of this paper is to indicate how TOSCANA may be extended to allow graphical representations not only of concept lattices but also of concept graphs in the sense of Contextual Logic. The contextual-logic extension of TOSCANA requires the logical scaling of conceptual and relatioal scales for which we propose the Peircean Algebraic Logic as reconstructed by R. W. Burch. As graphical representations we recommend, besides labelled line diagrams of concept lattices and Sowa's diagrams of conceptual graphs, particular information maps for utilizing background knowledge as much as possible. Our considerations are illustrated by a small information system about the domestic flights in Austria.
Resumo:
Die Verbindung von Wohnarchitektur und Lebensstil der Bewohner wurde in der Architektur bisher kaum analysiert und systematisiert. Selbst in den klassischen Lehrbüchern der Gebäudelehre fehlt in der Regel eine definierte Auffassung des Lebensstils der Bewohner als Einflussparameter für Architektur. Es sind vorwiegend implizite, verkürzte oder nur sehr persönliche Vorstellungen vom Lebensstil zukünftiger Nutzer, die in die Architektur eingehen. Mit der vorliegenden Arbeit wird die Beziehung zwischen Lebensstil, Atmosphäre und architektonischem Programm im Kontext von Wohnarchitektur theoretisch, konzeptionell und an Hand eigener empirischer Analysen expliziert. Lebensstil wird dabei als Resultat eines Kräftefelds zwischen Individuum und Gesellschaft begriffen, also dem Zusammenwirken von individuellen und gesellschaftlichen Bedingungen, die sich in konkreten räumlichen Gegebenheiten vollziehen. Die theoretischen und empirischen Analysen erbrachten, dass eine Verknüpfung von Lebensstil und Architektur auf einer Ebene stattfinden sollte, die ihre inhaltliche Verschneidung erlaubt. Das heißt, dass weder „fertige“ Lebensstiltypen, wie in der soziologischen Lebensstilforschung üblich, noch Wohn(haus)typologien herangezogen werden sollten. Vielmehr sollten die Lebensstilparameter in ihre strukturellen Einzelteile zerlegt und dechiffriert werden, da fertige Typenbeschreibungen oft nur assoziative Verbindungen erzeugen und schwer in räumliche Dimensionen transferierbar sind. Die Entwicklung und Erforschung der Lebensstilparameter stellt im vorliegenden Ansatz die Voraussetzung zur Generierung von Wohnarchitektur unter dem Fokus des Lebensstils dar. Hierzu wurden sog. Integrative Lebensstil-Architektur-Parameter erarbeitet. Diese Parameter sind als Einzeldimensionen konzipiert und ermöglichen so eine freie Kombination und Schwerpunktsetzung durch den Architekten. Dadurch lässt sich Architektur im Sinne des Lebensstils beschreiben und analysieren. Neben der Analyse von Architektur an Hand der Parameter kann ihnen aber auch eine generative Gestaltungskraft in der Architektur zugesprochen werden, woraus eine zielgerichtetere Harmonisierung von Lebensstil und Architektur zu erwarten ist.
Resumo:
Die Diskussion in den Planungswissenschaften beschreibt den Paradigmenwechsel vom so genannten DEAD-Model (Decide-Announce-Defend) zum Tripple-D-Model (Dialogue-Decide-Deliver) und beschäftigt sich intensiv mit dem Thema Governance. Komplexe Planungsaufgaben brauchen eine Vielfalt an Lösungsideen unterschiedlicher gesellschaftlicher Gruppen. Planung verfolgt u. a. die Umsetzung der Ziele einer nachhaltigen Entwicklung, die die Einbeziehung der Öffentlichkeit (Zivilgesellschaft, Unternehmen und Bürger) verlangt. Darüber hinaus wird eine Erweiterung der Perspektive über Verfahren und Steuerungsformen hinaus auf Akteure und Prozesse gefordert. Räumliche Entwicklungen sollen stärker im Zusammenhang mit Entscheidungsfindungsprozesse untersucht werden. Die Dissertation ergänzt eine wirkungsorientierte Perspektive, die Wirkungen, sowohl räumliche als auch soziale, in den Mittelpunkt der Betrachtung stellt. Sie stützt sich auf Beobachtungen, dass klassisches Projektmanagement für erfolgreiche Planungsprozesse nicht ausreicht, sondern zusätzlich Prozessmanagement braucht. Mit der Weiterentwicklung der partizipativen Planung, die zusätzlich in den Kontext gesellschaftlicher Lernprozesse und zukunftsfähiger Veränderungen gesellschaftlicher Bedingungen gestellt wird, ergänzt die Dissertation planungswissenschaftliche Theorien. Aus einem fachübergreifenden Blickwinkel wird die räumliche Planung in die Reihe von Management- und Organisationswissenschaften eingeordnet. Ausgehend von der Frage, welche räumlichen und sozialen Wirkungen durch Beteiligungsprozesse unter welchen Bedingungen erzielt werden, wurden Fallstudien aus der Wasserwirtschaft und ihre Prozessbiografien umfassend evaluiert. Als Evaluierungsmethode wurde ein von der EU-Kommission empfohlener Evaluierungsrahmen gewählt, der sowohl den Prozess selbst, seine Rahmenbedingungen und Durchführung, als auch Wirkungen analysiert und bewertet. Auf der Grundlage der Ergebnisse und theoretischer Erkenntnisse, vorrangig aus der Evaluationsforschung, wird ein umfassender Beteiligungsansatz konzipiert. Dabei handelt es sich um ein offenes Gerüst, in das sich bewährte und innovative Elemente strategisch gezielt integrieren lassen. Die Struktur verbindet verschiedene Beteiligungswerkzeuge unterschiedlicher Intensitäten und für unterschiedliche Zielgruppen zu einem Gesamtkonzept, mit dem Ziel, möglichst die gewünschten Wirkungen zu erreichen. Wesentlich an dem Ansatz ist, dass bereits das Prozessdesign unter Mitwirkung von Projektträgern, Beratern und Schlüsselakteuren erfolgt. Die partizipative Beteiligungsplanung bedeutet somit Klärung der Vorgehensweise und gleichzeitig Bewusstseins- und Kompetenzerweiterung der verantwortlichen Akteure. Im Ausblick werden künftige Forschungsaufgaben im Bereich der Mitwirkung in der räumlichen Planung formuliert und Handlungsmöglichkeiten aufgezeigt, um Partizipation als Teil planerischer „Alltagskultur“ weiterzuentwickeln. Dies erfolgt vor dem Hintergrund der Bedeutung von Partizipation und Bildung als Umsetzungsstrategie von Ideen der Landschaftsentwicklung und Nachhaltigkeit.
Resumo:
The aim of this paper is the numerical treatment of a boundary value problem for the system of Stokes' equations. For this we extend the method of approximate approximations to boundary value problems. This method was introduced by V. Maz'ya in 1991 and has been used until now for the approximation of smooth functions defined on the whole space and for the approximation of volume potentials. In the present paper we develop an approximation procedure for the solution of the interior Dirichlet problem for the system of Stokes' equations in two dimensions. The procedure is based on potential theoretical considerations in connection with a boundary integral equations method and consists of three approximation steps as follows. In a first step the unknown source density in the potential representation of the solution is replaced by approximate approximations. In a second step the decay behavior of the generating functions is used to gain a suitable approximation for the potential kernel, and in a third step Nyström's method leads to a linear algebraic system for the approximate source density. For every step a convergence analysis is established and corresponding error estimates are given.
Resumo:
Die Simulation von Verlusten in Verbrennungsmotoren ermöglicht die Entwicklung optimierter Strategien für Verbrauchs- und Emissionskonzepte sowie die modellbasierte Betrachtung von Steuerungssystemen in Kraftfahrzeugen. Es gibt Simulationswerkzeuge, die die Verluste sehr detailliert auf der Basis von physikalischen Gesetzen nachbilden. Allerdings sind diese Werkzeuge nicht echtzeitfähig und können somit nicht in HiL-Umgebungen und Steuergeräten verwendet werden. Mit dem hier vorgestellten Ansatz können die Verluste in Verbrennungsmotoren unter Berücksichtigung der Einflüsse des variablen Ventiltriebs (VVT) nachgebildet werden. Das Gesamtmodell basiert auf einer physikalischen Grundstruktur mit integrierten datengetriebenen Teilmodellen. Durch den modularen Aufbau des Modells werden die Ladungswechsel- und Reibverluste in getrennten Teilmodellen berechnet, wobei die Reibverluste einer weiteren Unterteilung in Bauteilgruppen (Grundlager, Pleuellager, Kolbengruppe, etc.) unterliegen. Dieser modulare Aufbau ermöglicht kompakte Teilmodelle, die nur komponentenspezifische Eingänge besitzen. Die Modularität der Gesamtstruktur ermöglicht es, die Verluste einzelner Komponenten zu simulieren und zu bewerten. Durch die Einbeziehung von Konstruktionsdaten in den Modellerstellungsprozess können neben den prozessrelevanten Betriebsparametern auch Konstruktionsparameter bei der Simulation berücksichtigt werden. Hierdurch wird eine vereinfachte Skalierung der abgeleiteten Modelle ermöglicht. Die aus dem vorgestellten Ansatz abgeleiteten Verlustmodelle erfüllen den Aspekt der Echtzeitfähigkeit und können daher in HiL-Umgebungen verwendet werden.
Resumo:
Die Arbeit befasst sich mit der Frage nach dem Einfluss von Biohöfen auf die Menschen, die in ihrem Umfeld leben. Sie bietet Einblicke in die Zusammenhänge, in denen Nachbarn, Kollegen, Freunde oder Kunden einen Biohof gezielt oder eher zufällig nutzen, um hier informell Erfahrungen zu sammeln, die zu nachhaltigen Lebennstilen und Wirtschaftsweisen beitragen können. Im Rahmen von sechs Fallstudien wurden hierfür ökologisch wirtschaftende Landwirtschaftsbetriebe in Brandenburg im Hinblick auf die informelle Vermittlung von Wissen und Erfahrungen qualitativ untersucht. Mit Hilfe der Grounded Theory wird die Entstehung von informellen Lernprozessen im sozialen Umfeld der Höfe rekonstruiert. Neben dem empirischen Ausgangsmaterial erwiesen sich die handlungstheoretischen Konstrukte Lebenswelt, Habitus, Lebensstil und Lebensführung als hilfreicher Interpretationshintergrund. Mit diesen theoretischen Ansätzen werden die soziokulturellen Einflussfaktoren für Erfahren, Lernen und Vermitteln betont. Informelles Lernen wird so als ein sozial eingebetteter Prozess verstanden. Aus dieser, weniger subjektorientierten Perspektive treten dann Faktoren wie z.B. die Atmosphäre der Beziehung zwischen einer Person und dem Biohof, die sinnliche Wahrnehmung und die Art der Kommunikation in das Blickfeld der Analyse. In der Untersuchung wird eine Vielzahl von Verhaltensänderungen, Denkanstößen und Anregungen benannt, die im Zusammenhang mit den untersuchten Biohöfen geschildert wurden und die im Hinblick auf eine nachhaltige Entwicklung als förderlich eingeschätzt werden. Sie basieren, so der Ansatz der Arbeit, auf informellen Lernprozessen. Das zentrale Ergebnis der Fallanalysen ist eine strukturierte Zusammenstellung der im Untersuchungskontext relevanten Einflussfaktoren für erfolgreiches informelles Lernen. Als wesentliche erscheinen hierbei insbesondere zwei Variablen: zum einen hat sich das „wohlwollende Interesse“ als förderlich für das Zustandekommen und den Verlauf von informellen Lernprozessen herausgestellt. Mit diesem Begriff wird eine Einstellung dem Biohof gegenüber beschrieben, die ein Wohlgesonnensein, das Vertrauen und die Neugierde am Hof beinhaltet. Zum anderen scheint die „Erlebbarkeit“ der Angebote zur Wissensvermittlung für das informelle, habitus- und lebensstilbezogene Lernen bedeutsam zu sein. Ergänzend zu dem auf die lernenden Subjekte gerichteten Fokus wurden in der Forschungsarbeit auch Beweggründe der Betriebsleiter, für die jeweils praktizierte Wissens- und Erfahrungsvermittlung herausgearbeitet. Die Betrachtung wird durch die Zusammenstellung von Schwierigkeiten und Hindernissen abgerundet, die dem informellen Lernen vom Biohof entgegen stehen können. Ausgehend von den fallbezogenen Ergebnissen liefert die Arbeit damit eine Grundlage, um über die Bedeutung von Lernfeldern, die durch Biolandwirte, aber auch andere Akteursgruppen bereit gestellt werden, nachzudenken und um ihre gesellschaftliche Relevanz zu diskutieren.