21 resultados para Tiefe Geothermie
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In der Praxis kommt es bei der spanenden Bearbeitung immer wieder zu großen Standwegunterschieden identischer Werkzeuge bei vordergründig identischen Bearbeitungsrandbedingungen. Insbesondere bei Fertigungsschritten, die das Bohren als Vorbearbeitung erfordern, kommt es gelegentlich zu atypischen Verschleißerscheinungen, die auf das Entstehen einer Neuhärtezone an der Werkstückoberfläche beim Bohren zurückgeführt werden. Grundsätzlich sind Randzonenveränderungen eine Folge der mechanischen und thermischen Beanspruchung bei der Bearbeitung. Beim Eindringen des Schneidkeils kommt es zu Kornverzerrungen, welche die Werkstückhärte bis in eine Tiefe von 40 bis 80 µm erhöhen können. Überdies wird die Randzone des Werkstücks durch den Bearbeitungsvorgang und den Spantransport erhitzt und durch den Kühlschmierstoff bzw. die so genannte Selbstabschreckung im Anschluss sehr schnell abgekühlt. So kann es in Abhängigkeit der Randbedingungen zu Gefügeänderungen mit härtesteigernder (Sekundärabschreckung) oder härtemindernder (Anlasseffekte) Wirkung kommen. Nicht zuletzt beeinflussen beide Beanspruchungsarten auch das Ausmaß der Eigenspannungen in der Werkstückoberfläche. In dieser Arbeit werden die beim Kernlochbohren erzeugten Randzonenveränderungen sowie die Standzeit von Folgebearbeitungswerkzeugen, wie Gewindebohrern und Gewindeformern, und deren Abhängigkeit vom Verschleißzustand des Kernlochbohrers untersucht. Weiterhin werden mit Hilfe einer Energiebilanz die Anteile herausgefiltert, die primär die Eigenschaften der Bohrungsrandzone beeinflussen. Dies geschieht mit Hilfe einer mathematischen Modellierung des Bohrprozesses, in der die Einflüsse der Schneidkantengeometrie, der Schneidkantenverrundung, der Schneidkantenfase sowie des Freiflächenverschleißes berücksichtigt werden.
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
Sowohl die Ressourcenproblematik als auch die drohenden Ausmaße der Klimaänderung lassen einen Umstieg auf andere Energiequellen langfristig unausweichlich erscheinen und mittelfristig als dringend geboten. Unabhängig von der Frage, auf welchem Niveau sich der Energiebedarf stabilisieren lässt, bleibt dabei zu klären, welche Möglichkeiten sich aus technischer und wirtschaftlicher Sicht in Zukunft zur Deckung unseres Energiebedarfs anbieten. Eine aussichtsreiche Option besteht in der Nutzung regenerativer Energien in ihrer ganzen Vielfalt. Die Arbeit "Szenarien zur zukünftigen Stromversorgung, kostenoptimierte Variationen zur Versorgung Europas und seiner Nachbarn mit Strom aus erneuerbaren Energien" konzentriert sich mit der Stromversorgung auf einen Teilaspekt der Energieversorgung, der zunehmend an Wichtigkeit gewinnt und als ein Schlüssel zur nachhaltigen Energieversorgung interpretiert werden kann. Die Stromversorgung ist heute weltweit für etwa die Hälfte des anthropogenen CO2-Ausstoßes verantwortlich. In dieser Arbeit wurden anhand verschiedener Szenarien Möglichkeiten einer weitgehend CO2–neutralen Stromversorgung für Europa und seine nähere Umgebung untersucht, wobei das Szenariogebiet etwa 1,1 Mrd. Einwohner und einen Stromverbrauch von knapp 4000 TWh/a umfasst. Dabei wurde untersucht, wie die Stromversorgung aufgebaut sein sollte, damit sie möglichst kostengünstig verwirklicht werden kann. Diese Frage wurde beispielsweise für Szenarien untersucht, in denen ausschließlich heute marktverfügbare Techniken berücksichtigt wurden. Auch der Einfluss der Nutzung einiger neuer Technologien, die bisher noch in Entwicklung sind, auf die optimale Gestaltung der Stromversorgung, wurde anhand einiger Beispiele untersucht. Die Konzeption der zukünftigen Stromversorgung sollte dabei nach Möglichkeit objektiven Kriterien gehorchen, die auch die Vergleichbarkeit verschiedener Versorgungsansätze gewährleisten. Dafür wurde ein Optimierungsansatz gewählt, mit dessen Hilfe sowohl bei der Konfiguration als auch beim rechnerischen Betrieb des Stromversorgungssystems weitgehend auf subjektive Entscheidungsprozesse verzichtet werden kann. Die Optimierung hatte zum Ziel, für die definierte möglichst realitätsnahe Versorgungsaufgabe den idealen Kraftwerks- und Leitungspark zu bestimmen, der eine kostenoptimale Stromversorgung gewährleistet. Als Erzeugungsoptionen werden dabei u.a. die Nutzung Regenerativer Energien durch Wasserkraftwerke, Windenergiekonverter, Fallwindkraftwerke, Biomassekraftwerke sowie solare und geothermische Kraftwerke berücksichtigt. Abhängig von den gewählten Randbedingungen ergaben sich dabei unterschiedliche Szenarien. Das Ziel der Arbeit war, mit Hilfe unterschiedlicher Szenarien eine breite Basis als Entscheidungsgrundlage für zukünftige politische Weichenstellungen zu schaffen. Die Szenarien zeigen Optionen für eine zukünftige Gestaltung der Stromversorgung auf, machen Auswirkungen verschiedener – auch politischer – Rahmenbedingungen deutlich und stellen so die geforderte Entscheidungsgrundlage bereit. Als Grundlage für die Erstellung der Szenarien mussten die verschiedenen Potentiale erneuerbarer Energien in hoher zeitlicher und räumlicher Auflösung ermittelt werden, mit denen es erstmals möglich war, die Fragen einer großräumigen regenerativen Stromversorgung ohne ungesicherte Annahmen anhand einer verlässlichen Datengrundlage anzugehen. Auch die Charakteristika der verschiedensten Energiewandlungs- und Transportsysteme mussten studiert werden und sind wie deren Kosten und die verschiedenen Potentiale in der vorliegenden Arbeit ausführlich diskutiert. Als Ausgangsszenario und Bezugspunkt dient ein konservatives Grundszenario. Hierbei handelt es sich um ein Szenario für eine Stromversorgung unter ausschließlicher Nutzung erneuerbarer Energien, die wiederum ausschließlich auf heute bereits entwickelte Technologien zurückgreift und dabei für alle Komponenten die heutigen Kosten zugrundelegt. Dieses Grundszenario ist dementsprechend auch als eine Art konservative Worst-Case-Abschätzung für unsere Zukunftsoptionen bei der regenerativen Stromversorgung zu verstehen. Als Ergebnis der Optimierung basiert die Stromversorgung beim Grundszenario zum größten Teil auf der Stromproduktion aus Windkraft. Biomasse und schon heute bestehende Wasserkraft übernehmen den überwiegenden Teil der Backup-Aufgaben innerhalb des – mit leistungsstarker HGÜ (Hochspannungs–Gleichstrom–Übertragung) verknüpften – Stromversorgungsgebiets. Die Stromgestehungskosten liegen mit 4,65 €ct / kWh sehr nahe am heute Üblichen. Sie liegen niedriger als die heutigen Preisen an der Strombörse. In allen Szenarien – außer relativ teuren, restriktiv ”dezentralen” unter Ausschluss großräumig länderübergreifenden Stromtransports – spielt der Stromtransport eine wichtige Rolle. Er wird genutzt, um Ausgleichseffekte bei der dargebotsabhängigen Stromproduktion aus erneuerbaren Quellen zu realisieren, gute kostengünstige Potentiale nutzbar zu machen und um die Speicherwasserkraft sowie die dezentral genutzte Biomasse mit ihrer Speicherfähigkeit für großräumige Backup-Aufgaben zu erschließen. Damit erweist sich der Stromtransport als einer der Schlüssel zu einer kostengünstigen Stromversorgung. Dies wiederum kann als Handlungsempfehlung bei politischen Weichenstellungen interpretiert werden, die demnach gezielt auf internationale Kooperation im Bereich der Nutzung erneuerbarer Energien setzen und insbesondere den großräumigen Stromtransport mit einbeziehen sollten. Die Szenarien stellen detaillierte und verlässliche Grundlagen für wichtige politische und technologische Zukunftsentscheidungen zur Verfügung. Sie zeigen, dass bei internationaler Kooperation selbst bei konservativen Annahmen eine rein regenerative Stromversorgung möglich ist, die wirtschaftlich ohne Probleme zu realisieren wäre und verweisen den Handlungsbedarf in den Bereich der Politik. Eine wesentliche Aufgabe der Politik läge darin, die internationale Kooperation zu organisieren und Instrumente für eine Umgestaltung der Stromversorgung zu entwickeln. Dabei kann davon ausgegangen werden, dass nicht nur ein sinnvoller Weg zu einer CO2–neutralen Stromversorgung beschritten würde, sondern sich darüber hinaus ausgezeichnete Entwicklungsperspektiven für die ärmeren Nachbarstaaten der EU und Europas eröffnen.
Resumo:
Diese Arbeit beschreibt den Evaluationsprozess einer dreidimensionalen Visualisierungstechnik, die am Institut für periphere Mikroelektronik der Universität Kassel entwickelt wurde. Hinter der dreidimensionalen Darstellung mittels Linsenrasterscheibe verbirgt sich eine neue Dimension der Interaktion mit dem Computer. Im Vergleich zu gewöhnlichen dreidimensionalen Darstellungen, bei denen ein 3D-Objekt auf einer 2D-Fläche abgebildet wird und somit nach wie vor nicht aus der Bildschirmebene heraus kann, können bei der stereoskopen Darstellung die Objekte dreidimensional visualisiert werden. Die Objekte tauchen vor, beziehungsweise hinter der Darstellungsebene auf. Da die Linsenrasterscheibe bisher noch nicht wahrnehmungspsychologisch untersucht wurde und auch allgemein auf dem Gebiet der Evaluation von 3D-Systemen nur wenige Untersuchungen mit quantitativen Ergebnissen verfügbar sind (Vollbracht, 1997), besteht hier ein zentrales Forschungsinteresse. Um eine Evaluation dieses 3D-Systems durchzuführen, wird im Theorieteil der Arbeit zunächst der Begriff der Evaluation definiert. Des Weiteren werden die wahrnehmungspsychologischen Grundlagen der monokularen und binokularen Raumwahrnehmung erörtert. Anschließend werden Techniken zur Erzeugung von Tiefe in Bildern und auf Bildschirmen erläutert und die Unterschiede zwischen der technisch erzeugten und der natürlichen Tiefenwahrnehmung näher beleuchtet. Nach der Vorstellung verschiedener stereoskoper Systeme wird näher auf die autostereoskope Linsenrasterscheibe eingegangen. Zum Abschluss des theoretischen Teils dieser Arbeit wird die Theorie des eingesetzten Befindlichkeitsfragebogens veranschaulicht. Gegenstand des empirischen Teils dieser Arbeit sind zwei zentrale Fragestellungen. Erstens soll untersucht werden, ob durch den höheren Informationsgehalt grundlegende Wahrnehmungsleistungen in bestimmten Bereichen positiv beeinflusst werden können. Zweitens soll untersucht werden, ob sich die höhere visuelle Natürlichkeit und die Neuartigkeit der Bildpräsentation auch auf die subjektive Befindlichkeit der Probanden auswirkt. Die empirische Überprüfung dieser Hypothesen erfolgt mittels dreier Experimente. Bei den ersten beiden Experimenten stehen grundlegende wahrnehmungspsychologische Leistungen im Vordergrund, während in der dritten Untersuchung der Bereich der subjektiven Befindlichkeit gemessen wird. Abschließend werden die Ergebnisse der Untersuchungen vorgestellt und diskutiert. Des Weiteren werden konkrete Einsatzmöglichkeiten für die Linsenrasterscheibe aufgezeigt und denkbare nachfolgende experimentelle Vorgehensweisen skizziert.
Resumo:
Vielen Sensoren in mikroelektromechanische Systemen (MEMS) liegen Siliziummembranen zu Grunde. Die Membranen werden mit unterschiedlichen Verfahren hergestellt. Zum Teil kann man Opferschichten benutzen. Will man jedoch Membranen aus kristallinem Silizium, so muß man auf Ätzstopptechniken zurückgreifen. Eine gängige Methode verwendet vergrabene p^(+)-Schichten. Die sehr hohe Dotierung des Siliziums führt jedoch zu unüberwindbaren Problemen bei der Schaltkreisintegration. Die Verwendung von pn-Übergängen beim elektrochemischen Ätzen als Ätzstopp scheint eine aussichtsreiche Lösung. Die Dotierstoffkonzentrationen sind unkritisch, da sie die Elektronik nicht beeinflussen. Die Siliziummembranen lassen sich mit den üblichen Standard-IC-Prozessen herstellen. Ein Ziel der vorliegenden Arbeit bestand darin, die physikalisch-chemische Erklärung des elektrochemischen Ätzstopps von Silizium in alkalischen Lösungen zu finden. Dabei sollten Effekte untersucht werden, die einen Einfluß auf das Ätzstoppverhalten haben, wozu insbesondere - die Verarmungszone unterhalb der p-Silizium/Elektrolyt-Phasengrenzfläche - sowie die Raumladungszone des in Sperrichtung geschalteten pn-Übergangs zählen. Ausgangspunkt sind die chemischen Ätzmechanismen des Siliziums respektive des Siliziumdioxids, wobei der Mechanismus des Siliziumätzens in alkalischen Lösungen und die elektrochemischen Effekte ausführlich beschrieben werden. Es zeigt sich ein starker Einfluß der Oberflächenelektronen im Leitungsband des Siliziums und der Hydroxidionen des Elektrolyten auf den Auflösungsmechanismus des Siliziums. Diese Erkenntnisse ermöglichen es, den mittels pn-Übergangs kontrollierten elektrochemischen Ätzstopp vollständig zu beschreiben. Es zeigte sich, daß die Dicke der Membran von den Dotierstoffkonzentrationen des p-Siliziumsubstrats und der n-Siliziumschicht, der Tiefe der n-Dotierung, der Temperatur im Ätzsystem und besonders von der anodischen Sperrspannung abhängig ist. Zur Verifizierung wurden Siliziummembrandicken mit Hilfe von IR-Ellipsometrie vermessen. Im Rahmen dieser Arbeit wurde auch der es Einflusses von starken Dotierungen im Silizium auf dessen elastische Eigenschaften untersucht, im speziellen bei µm-dünnen Membranen, die mittels elektrochemischen Ätzstopps hergestellt wurden. Dabei wird auf den Einfluß der hohen Dotierstoffkonzentrationen ein besonderes Augenmerk gelegt. Der Youngsche Modul läßt sich bei einem Zugversuch durch Messung der Ausdehnung ermitteln. Für eine zerstörungsfreie Messung der sehr dünnen pn-Siliziummembranen wird die Dehnung berührungslos mit Hilfe des Laser-Speckle Extensometers gemessen. Laserakustische Oberflächenwellen wurden eingesetzt, um gezielt den Einfluß der unterschiedlich starken Dotierung mit Phosphor auf den Elastizitätsmodul zu ermitteln.
Resumo:
Many nonlinear optical microscopy techniques based on the high-intensity nonlinear phenomena were developed recent years. A new technique based on the minimal-invasive in-situ analysis of the specific bound elements in biological samples is described in the present work. The imaging-mode Laser-Induced Breakdown Spectroscopy (LIBS) is proposed as a combination of LIBS, femtosecond laser material processing and microscopy. The Calcium distribution in the peripheral cell wall of the sunflower seedling (Helianthus Annuus L.) stem is studied as a first application of the imaging-mode LIBS. At first, several nonlinear optical microscopy techniques are overviewed. The spatial resolution of the imaging-mode LIBS microscope is discussed basing on the Point-Spread Function (PSF) concept. The primary processes of the Laser-Induced Breakdown (LIB) are overviewed. We consider ionization, breakdown, plasma formation and ablation processes. Water with defined Calcium salt concentration is used as a model of the biological object in the preliminary experiments. The transient LIB spectra are measured and analysed for both nanosecond and femtosecond laser excitation. The experiment on the local Calcium concentration measurements in the peripheral cell wall of the sunflower seedling stem employing nanosecond LIBS shows, that nanosecond laser is not a suitable excitation source for the biological applications. In case of the nanosecond laser the ablation craters have random shape and depth over 20 µm. The analysis of the femtosecond laser ablation craters shows the reproducible circle form. At 3.5 µJ laser pulse energy the diameter of the crater is 4 µm and depth 140 nm for single laser pulse, which results in 1 femtoliter analytical volume. The experimental result of the 2 dimensional and surface sectioning of the bound Calcium concentrations is presented in the work.
Resumo:
Die Studie betrachtet die berufliche Selbstständigkeit von Sozialarbeiter(innen) mit zwei zentralen Fragestellungen: 1. Wie konstituiert sich die wirtschaftliche, die fachliche und die persönlich-biographische Existenz der selbstständigen Sozialarbeitenden in der Sozialen Arbeit? 2. Welche professions- und sozialpolitischen Bedingungen und Auswirkungen hat die Arbeitsform? Die Arbeit erweitert das bestehende Wissen zum Thema, indem sie durch die Befragung von 11 Selbstständigen in Erst- und z.T. Wiederholungsinterviews einen Bogen spannt von den biographischen und fachlichen Ausgangslagen der Gründer über die Gründung und Etablierung der Selbständigkeit hinaus, bis hin zur Auf- und Übergabe der Selbstständigkeit und liefert somit erstmals eine prozessorientierte empirische Untersuchung. Die Titelkategorien Autonomie und Anerkennung sind die zentralen Themen der selbstständigen Sozialarbeitenden: mit ihrer Selbstständigkeit versuchen sie auf individueller Ebene, ihre Autonomie und Anerkennung durch den Wechsel der Arbeitsform zu stärken. Diese Motivation verweist darauf, dass ihnen der Beruf im Angestelltenverhältnis inhaltlich, strukturell und finanziell die gewünscht Autonomie und Anerkennung nicht gewährleistete und führt zur Diskussion über die Probleme der Professionalisierung, der Organisation und Finanzierung sowie der sozialpolitischen Abhängigkeiten Sozialer Arbeit. Selbstständige Sozialarbeitende verkehren ihre Arbeitssituation konsequent ins Gegenteil: im Kontext der Autonomiewahrung sind die erfolgreichen Selbstständigen höchst flexibel organisiert, nutzen mehrere Finanzierungsquellen, bieten verschiedene Dienste an und etablieren ihre Arbeit auf unterschiedlichen Ebenen mit Adressaten Sozialer Arbeit, auf der Beratungs- und Schulungsebene. Je pluraler selbstständige Sozialarbeiter(innen) ihre Arbeitsgebiete und Finanzierungsstrategien ausrichten, umso handlungsfähiger sind sie und desto eigenständiger können sie arbeiten. Die Kategorie der Anerkennung beinhaltet finanzielle und fachliche Fragen gleichzeitig. Ziel ist ein Gehalt im akademischen Bereich und höher. Bei den erfolgreichen Selbstständigen müssen Breite und Tiefe der angewandten sozialarbeiterischen Kompetenzen geeignet sein, sowohl für die Adressaten, als auch für sich selbst befriedigende Arbeitsprozesse gestalten zu können. Eine mittel- und langfristig erfolgreiche berufliche Selbstständigkeit definiert sich über Qualität: Gute Qualität Sozialer Arbeit heißt für die erfolgreichen Selbstständigen, sich in der Entwicklung ihrer Angebote eng an den Bedürfnissen und Kompetenzen der Adressaten zu orientieren. Selbstständige Sozialarbeit muss sich über Qualität definieren, weil sie einen Wettbewerb braucht, der einen existenzsichernden Preis garantiert. Daneben profitieren die selbstständigen Sozialarbeiter(innen) davon, dass es Bereiche gibt, in denen das bestehende Angebote Sozialer Arbeit Bedarfe nicht erfüllt. Selbstständige Sozialarbeiter(innen) haben nicht die Veränderung sozialpolitischer Systeme zum Ziel. Sie suchen Nischen im eigenen Sinn bedürfniserfüllend arbeiten können. Dabei sind sie immer aufmerksam, flexibel und in Entwicklung zu bleiben, um sich veränderten Rahmenbedingungen anpassen zu können bzw. die funktionablen Rahmenbedingungen zu erhalten. Ihre Grenzen in der Arbeit werden plural ausgerichteten selbstständigen Sozialarbeitern nicht mehr wie als Angestellte durch die Logik bürokratisch-technischer Realitäten gesetzt, sondern durch persönliche Kompetenzen, Risikobereitschaft, Zeit und wirtschaftliche Spielräume. Ausschlaggebend für ausreichende Handlungs- und Entwicklungsmöglichkeiten als Selbstständige sind die persönlichen und fachlichen Kompetenzen sowie Netzwerke. Eine Innovationswirkung für den Berufsstand geht von den erfolgreichen selbständigen Sozialarbeiter(innen) dieser Studie insofern aus, als dass sie in den Arbeitsbereichen, die keine klassisch sozialstaatlichen sind, neue und andere Adressaten ansprechen. Sie erweitern die potentiellen Arbeitgebiete. In sozialstaatlich verankerten Bereichen können selbständige Sozialarbeiter(innen) durch ihre flexible Arbeitsform Innovationen erzeugen, die sich durch eine stärkere Orientierung an Bedürfnissen von Adressaten auszeichnen und somit Alternativen zu bestehenden Konzepten bilden.
Resumo:
Die vorliegende Dissertation stellt einen Überblick dar, der theoretische und praktische Ansätze und Modelle untersucht, die transpersonale Dimensionen enthalten. Die transpersonale Psychologie entwickelte sich aus der Humanistischen Psychologie, die in der Mitte des letzten Jahrhunderts in Amerika entstand und sich in den 60er und 70er Jahren in Europa etablierte. Der Schwerpunkt der transpersonalen Psychologie liegt nicht primär auf menschlichen Bedürfnissen und Interessen, sondern bezieht neben der gesellschaftlichen die über die Person hinausgehende Dimension des Menschen mit ein. Der Theorieteil umfasst eine Vielzahl von Konzepten aus der Entwicklungspsychologie, der Reformpädagogik, der Psychotherapie, der Körpertherapie, spirituellen Schulungen, der Tiefenökologie sowie der Neurobiologie. Diese Ansätze geben Aufschluss darüber, wie sich das Weltbild von einer streng rationalen, linearen Sichtweise hin zu einem dynamischen Verständnis entwickelt hat. Der Praxisteil enthält pädagogische Fallstudien alternativer Schulen, deren Konzepte über reformpädagogische Konzepte hinausweisen und insbesondere Wert auf Spiritualität, Naturverbundenheit, Demokratiefähigkeit sowie die Anerkennung verschiedener Lernprozesse legen. Er beinhaltet außerdem Schulungen für Erwachsene, die meditative und psychotherapeutische Verfahren miteinander verbinden sowie Ansätze fernöstlicher Meditationstechniken, die sich besonders für westliche Menschen eignen. Aus den theoretischen Modellen und den praktischen Konzepten ergeben sich zehn transpersonale Dimensionen: Die 'Ethik der Ehrfurcht vor dem Leben', 'Tiefenökologie und Bewusstseinswandel', den 'politisch-sozialen Aspekt', das persönlich-bedeutsame Lernen', das 'Gefühl des Getragenseins' das taoistische 'Tun des Nicht-Tuns', die Schulung von 'Achtsamkeit, Selbstreflexion und Vielperspektivität', das 'Transformative Lernen', 'Spiritualität im Alltag' und die 'neue Rolle des Lehrers'. Diese transpersonalen Dimensionen erlauben keine klare Einordnung einer Schule, sondern weisen auf eine potentielle Entwicklung hin, die durch Schulungen erreicht werden kann. Dabei geht es in erster Linie darum, wie Kinder, Jugendliche und Erwachsene sich durch eine Pädagogik, die eine intensivere Zugangsweise zu sich selbst zulässt, getragen fühlen und ein Seinsvertrauen erlangen können, dass ihnen dabei hilft, auch in kritischen Lebensphasen gelassen zu reagieren. Bei der transpersonale Pädagogik handelt es sich nicht um eine neue Schule, sondern um eine neue Dimension, die integrierendes Potenzial besitzt, da sie Menschen dabei unterstützt, eine Perspektive einzunehmen, die über die eigene hinausreicht und zu einem erweiterten Verständnis für andere Menschen, Lebensweisen und Werte beiträgt. Durch die transpersonale Pädagogik entstehen neue Möglichkeiten, globalen Herausforderungen zu begegnen. Das Einbeziehen der transpersonalen Dimensionen fördert eine Entwicklung, die ein persönliches und gesellschaftliches Verantwortungsbewusstsein miteinander verbindet. Spiritualität kann dazu beitragen, dass der Mensch Erfahrungen macht, die über das hinausgehen, was er bisher kennengelernt hat und sich ihm dadurch neue Perspektiven eröffnen. Spirituelle Schulungen sollten aber immer auch die Person des Übenden einbeziehen, das In-der-Welt-Sein, die Verbindungen zum Alltag fördern, denn nur die Entwicklung von Sozialkompetenzen führt dazu, dass der Mensch eine tiefe Verantwortung für sein eigenes Leben, die Menschen in seiner Gemeinschaft und darüber hinaus spüren kann. Die in der Dissertation erarbeiteten transpersonalen Dimensionen können dazu beitragen, Schule in einen salutogenen Ort zu verwandeln und Bildungsprozesse respektvoll zu gestalten. Das bedeutet, Lernen nicht auf die Wissensvermittlung zu reduzieren, sondern als Lebenserfahrung anzuerkennen.
Resumo:
Im Rahmen der Fallstudie Harz sollte an der Schnittstelle zwischen Grundlagenforschung und angewandter Forschung ein Beitrag zur Klärung der Frage geleistet werden, inwieweit zwei Zuläufe der Sösetalsperre im Westharz versauert bzw. versauerungsgefährdet sind; aus diesem Stausee wird Trinkwasser für mehrere Gemeinden in Norddeutschland gewonnen. Die Belastung des fast vollständig bewaldeten Einzugsgebiets der Sösetalsperre mit luftbürtigen Schadstoffen (Saurer Regen) zählte zu den höchsten in Mitteleuropa. An jeweils drei Untersuchungsstellen der beiden Bäche Alte Riefensbeek (R1 bis R3) und Große Söse (S1 bis S3) wurden zwischen März 1987 und November 1988 Proben aus Moospolstern und dem hyporheischen Interstitial entnommen und physikalisch, chemisch und biologisch untersucht. Ergänzend wurden Wasserproben zwischen März 1986 und Oktober 1991 sowie vom April 1998 ebenso wie qualitative Fänge von Makroinvertebraten zwischen November 1986 und Juli 1990 sowie vom April 1998 ausgewertet. Die Analyse der tierischen Besiedlung der Moos- und Interstitialproben beschränkte sich auf die taxonomischen Gruppen Turbellaria (Strudelwürmer), Mollusca (Weichtiere), Amphipoda (Flohkrebse), Ephemeroptera (Eintagsfliegen), Plecoptera (Steinfliegen), Heteroptera (Wanzen), Megaloptera (Schlammfliegen), Coleoptera (Käfer), Trichoptera (Köcherfliegen) und Diptera (Zweiflügler). Der Grundsatz, daß normalverteilte und nicht normalverteilte Daten statistisch unterschiedlich behandelt werden müssen, wurde konsequent angewandt. Am Beispiel der Choriotopstruktur wurde gezeigt, daß die Auswahl des Analyseverfahrens das Ergebnis der ökologischen Interpretation multivariater statistischer Auswertung beeinflußt. Die Daten der Korngrößen-Verteilung wurden vergleichend einer univariaten und einer multivariaten statistischen Analyse unterworfen. Mit dem univariaten Verfahren wurden die Gradienten der ökologisch relevanten Korngrößen-Parameter eher erkannt als mit dem multivariaten Verfahren. Die Auswirkungen von Gewässerversauerung sowie anderer Umweltfaktoren (insgesamt 42 Faktoren) auf die Lebensgemeinschaften wurden anhand der Parameter Artenzahl, Besiedlungsdichte, Körpergröße und Biomasse untersucht. Abundanz, Biomasse und Körpergröße sowie die Umweltfaktoren wurden auf einem horizontalen Gradienten, d.h. im Längslauf der Bäche, und auf einem vertikalen Gradienten, d.h. fließende Welle / Bryorheon / Benthon versus Hyporheon, untersucht. Es wurde ein terminologisches System für die Kompartimente in der Fließgewässer-Aue vorgeschlagen, das in sich einheitlich ist. Es wurde ein neuer Moos-Vitalitätsindex für die Moospolster vorgestellt. Es wurden Bestimmungsschlüssel für die Larven der Chloroperlidae (Steinfliegen-Familie) und der Empididae (Tanzfliegen) in den beiden Harzbächen entwickelt. Die untersuchten Bachstrecken waren frei von Abwasserbelastung. An zwei Stellen wurde Wasser für einen Forellenteich ausgeleitet. Abgesehen von zwei meterhohen Abstürzen in der Großen Söse waren wasserbauliche Veränderungen ohne große Bedeutung. Das Abfluß-Regime war insofern nicht mehr natürlich, als beide Bäche in das System der bergbaulichen Bewässerungsgräben des Oberharzes eingebunden sind. Die Söse hatte ein F-nivopluviales Abfluß-Regime, der abflußreichste Doppelmonat war der März / April, die Unregelmäßigkeit des Abfluß-Regimes war sehr hoch, die Vorhersagbarkeit sehr niedrig, die monatlichen Abfluß-Maxima wiesen eine sehr geringe Konstanz auf. Der Zeitraum der biologischen Probenahme wurde von überdurchschnittlich vielen Tagen mit mäßig erhöhten Abflüssen geprägt, sehr große Hochwasser-Wellen fehlten aber. Die Abfluß-Dynamik wurde statistisch beschrieben. Das hydraulische Regime wurde anhand der Meßgrößen Fließgeschwindigkeit, Fließkraft und FROUDE-Zahl dargestellt. Der Zusammenhang zwischen Abfluß und Fließgeschwindigkeit auf der einen Seite und der Korngrößen-Verteilung auf der anderen Seite wurde statistisch untersucht, ebenfalls zwischen dem Abfluß und dem Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel sowie dem Wasserchemismus. In den Phasen ohne Hochwasser hatte das Hyporheal die Funktion einer Senke für Feinstkörner. Das Bachbett der Alten Riefensbeek war stabiler als das der Großen Söse. Insgesamt gesehen war das hyporheische Sediment in den quellnahen Abschnitten grobkörniger und auf den quellfernen Strecken feinkörniger. Der prozentuale Anteil der Feinstkörner im Hyporheal und Benthal nahm aber im Längslauf der Bäche ab. Dies ist ungewöhnlich, konnte aber nicht plausibel mit geologischen und hydrologischen Meßgrößen erklärt werden. Beide Bäche waren sommerkalt. Der Einfluß der Wassertemperatur auf die Larvalentwicklung wurde beispielhaft an den Taxa Baetis spp. und Leuctra gr. inermis untersucht. Es gab eine Tendenz, daß der Kohlenstoff- und Stickstoff-Gehalt der Feinstpartikel vom Benthal in das Hyporheal anstieg. Dies war ein weiterer Hinweis darauf, daß das Hyporheal die Funktion einer Senke und Vorratskammer für Nährstoffe hat. Der Zusammenhang zwischen partikulärer und gelöster Kohlenstoff-Fraktion wurde diskutiert. Im Hyporheon war die Nitrifikation nicht stärker als in der fließenden Welle. Es gab Hinweise, daß die sauren pH-Werte in der Großen Söse die Nitrifikation hemmten. Die Valenzen der Moos- und Tier-Taxa bezüglich Fließgeschwindigkeit, pH-Wert, Alkalinität sowie der Gehalte von Sauerstoff, Calcium, Magnesium, Kalium und Natrium wurden zusammengestellt. Das hyporheische Sediment war sehr grob und hatte eine hohe Porosität. Der Austausch zwischen fließender Welle und hyporheischem Wasser konnte deshalb sehr schnell erfolgen, es gab keine intergranulare Sprungschicht, die physikalischen und chemischen Tiefengradienten waren in den meisten Fällen gar nicht ausgeprägt oder nur sehr flach. Die Wassertemperatur des Freiwassers unterschied sich nicht signifikant von derjenigen im hyporheischen Wasser. Es gab -- von wenigen Ausnahmen bei pH-Wert, Leitfähigkeit und Sauerstoffgehalt abgesehen -- keine signifikanten Unterschiede zwischen dem Wasserchemismus der fließenden Welle und dem des Hyporheals. Die physikalischen und chemischen Voraussetzungen für die Refugialfunktion des Hyporheons waren deshalb für versauerungsempfindliche Taxa nicht gegeben. In der Tiefenverteilung der untersuchten Tiergruppen im Hyporheal lag das Maximum der Abundanz bzw. Biomasse häufiger in 10 cm als in 30 cm Tiefe. Daraus läßt sich aber keine allgemeine Gesetzmäßigkeit ableiten. Es wurde durchgehend die Definition angewendet, daß die Gewässerversauerung durch den Verlust an Pufferkapazität charakterisiert ist. Saure Gewässer können, müssen aber nicht versauert sein; versauerte Gewässer können, müssen aber nicht saures Wasser haben. Maßstab für das Pufferungsvermögen eines Gewässers ist nicht der pH-Wert, sondern sind die Alkalinität und andere chemische Versauerungsparameter. Der pH-Wert war auch operativ nicht als Indikator für Gewässerversauerung anwendbar. Die chemische Qualität des Bachwassers der Großen Söse entsprach aufgrund der Versauerung nicht den umweltrechtlichen Vorgaben bezüglich der Parameter pH-Wert, Aluminium, Eisen und Mangan, bzgl. Zink galt dies nur an S1. In der Alten Riefensbeek genügte das Hyporheal-Wasser in 30 cm Tiefe an R2 bzgl. des Sauerstoff-Gehalts nicht den umweltrechtlichen Anforderungen. Nur im Freiwasser an R1 genügten die Ammonium-Werte den Vorgaben der EG-Fischgewässer-Richtlinie, der Grenzwert wurde an allen anderen Meßstellen und Entnahmetiefen überschritten. Das BSB-Regime in allen Entnahmetiefen an R2, im Freiwasser an R3 und S1, im Hyporheal an R1 sowie in 30 cm Tiefe an R3 genügte nicht den Anforderungen der Fischgewässer-Richtlinie. Der Grenzwert für Gesamt-Phosphor wurde an S3 überschritten. In der Großen Söse war der Aluminium-Gehalt so hoch, daß anorganisches und organisches Aluminium unterschieden werden konnten. Besonders hohe Gehalte an toxischem anorganischen Aluminium wurden an Tagen mit Spitzen-Abflüssen und Versauerungsschüben gemessen. Erst die Ermittlung verschiedener chemischer Versauerungsparameter zeigte, daß auch die alkalischen Probestellen R2 und R3 mindestens versauerungsempfindlich waren. Die Messung bzw. Berechnung von chemischen Versauerungsparametern sollte deshalb zum Routineprogramm bei der Untersuchung von Gewässerversauerung gehören. Zu Beginn des Untersuchungsprogramms war angenommen worden, daß die mittleren und unteren Abschnitte der Alten Riefensbeek unversauert sind. Dieser Ansatz des Untersuchungsprogramms, einen unversauerten Referenzbach (Alte Riefensbeek) mit einem versauerten Bach (Große Söse) zu vergleichen, mußte nach der Berechnung von chemischen Versauerungsindikatoren sowie der Analyse der Abundanz- und Biomasse-Werte modifiziert werden. Es gab einen Versauerungsgradienten entlang der Probestellen: R1 (unversauert) R2 und R3 (versauerungsempfindlich bis episodisch leicht versauert) S2 und S3 (dauerhaft versauert) S1 (dauerhaft stark versauert). An S1 war das Hydrogencarbonat-Puffersystem vollständig, an S2 und S3 zeitweise ausgefallen. Die Versauerungslage an R2 und R3 war also schlechter als vorausgesehen. Unterschiede im Versauerungsgrad zwischen den Meßstellen waren nicht so sehr in unterschiedlichen Eintragsraten von versauernden Stoffen aus der Luft begründet, sondern in unterschiedlichen Grundgesteinen mit unterschiedlichem Puffervermögen. Der Anteil der verschiedenen sauren Anionen an der Versauerung wurde untersucht, die chemischen Versauerungsmechanismen wurden mit Hilfe von Ionenbilanzen und verschiedenen Versauerungsquotienten analysiert. Die beiden untersuchten Bäche waren von anthropogener Versauerung betroffen. Dabei spielte die Schwefel-Deposition (Sulfat) eine größere Rolle als die Stickstoff-Deposition (Nitrat). Die Probestelle S1 war immer schon in unbekanntem Maß natürlich sauer. Dieser natürlich saure Zustand wurde von der hinzugekommenen anthropogenen Versauerung bei weitem überragt. Die wenigen gewässerökologischen Daten, die im Wassereinzugsgebiet der Söse vor 1986 gewonnen wurden, deuten darauf hin, daß die Versauerung in den 70er und in der ersten Hälfte der 80er Jahre vom Boden und Gestein in die Bäche durchgeschlagen war. Dieser Versauerungsprozeß begann vermutlich vor 1973 in den Quellen auf dem Acker-Bruchberg und bewegte sich im Laufe der Jahre immer weiter talwärts in Richtung Trinkwasser-Talsperre. Der Mangel an (historischen) freilandökologischen Grundlagendaten war nicht nur im Untersuchungsgebiet, sondern ist allgemein in der Versauerungsforschung ein Problem. Wenn sich das Vorkommen von nah verwandten Arten (weitgehend) ausschließt, kann dies an der Versauerung liegen, z.B. war die Alte Riefensbeek ein Gammarus-Bach, die Große Söse ein Niphargus-Bach; dieses muß aber nicht an der Versauerung liegen, z.B. fehlte Habroleptoides confusa im Hyporheos an R3, Habrophlebia lauta hatte dagegen ihr Abundanz- und Biomasse-Maximum an R3. Zugleich lag das Maximum des prozentualen Anteils von Grobsand an R3, eine mögliche Ursache für diese interspezifische Konkurrenz. Die biologische Indikation von Gewässerversauerung mit Hilfe der Säurezustandsklassen funktionierte nicht in den beiden Harzbächen. Es wurde deshalb ein biologischer Versauerungsindex vorgeschlagen; dieser wurde nicht am pH-Wert kalibriert, sondern an der chemischen Versauerungslage, gekennzeichnet durch die Alkalinität und andere chemische Meßgrößen der Versauerung. Dafür wurden aufgrund der qualitativen und quantitativen Daten die häufigeren Taxa in die vier Klassen deutlich versauerungsempfindlich, mäßig versauerungsempfindlich, mäßig versauerungstolerant und deutlich versauerungstolerant eingeteilt. Es reicht nicht aus, die biologischen Folgen von Gewässerversauerung sowie Veränderungen in der Nährstoff-Verfügbarkeit und im sonstigen Wasserchemismus nur anhand der Artenzahl oder des Artenspektrums abzuschätzen. Vielmehr müssen quantitative Methoden wie die Ermittlung der Abundanzen angewandt werden, um anthropogene und natürliche Störungen des Ökosystems zu erfassen. Es wurde eine Strategie für die behördliche Gewässergüteüberwachung von Bachoberläufen vorgeschlagen, die flächendeckend die Versauerungsgefährdung erfassen kann. Die Auswirkungen der zeitlichen Dynamik des Versauerungschemismus wurden am Beispiel des versauerungsempfindlichen Taxons Baetis spp. (Eintagsfliegen) dargestellt. An S2 und S3 kam es zu starken Versauerungsschüben. Baetis konnte sich nicht ganzjährig halten, sondern nur in versauerungsarmen Phasen im Sommer und im Herbst; es gab einen Besiedlungskreislauf aus Ausrottungs- und Wiederbesiedlungsphasen. Die temporäre Population von Baetis an S2 und S3 bestand nur aus ersten Larvenstadien. Die Probestellen wurden auf horizontalen Gradienten der Umweltfaktoren angeordnet. Bei einigen Parametern gab es keinen Gradienten (z.B. Sauerstoff-Gehalt), bei anderen Parametern waren die Meßstellen auf sehr flachen Gradienten angeordnet (z.B. C:N-Quotient der Feinstkörner), bei den restlichen Meßgrößen waren die Gradienten sehr deutlich (z.B. Alkalinität). Bei den Längsgradienten von Abundanz und Biomasse waren alle Möglichkeiten vertreten: Zunahme (z.B. Leuctra pseudosignifera), Abnahme (z.B. Gammarus pulex), Maximum an der mittleren Probestelle (z.B. Leuctra pseudocingulata) und kein signifikanter Trend (z.B. Nemoura spp.). Abundanz und Biomasse zahlreicher taxonomischer Einheiten hatten ihr Maximum im Längslauf an den quellnächsten Probestellen R1 und S1, z.B. Protonemura spp. und Plectrocnemia spp. Die Lebensgemeinschaften an R1 und S1 waren allerdings völlig unterschiedlich zusammengesetzt. Die häufig vertretene Annahme, versauerte Gewässer seien biologisch tot, ist falsch. Unter Anwendung des 3. biozönotischen Grundprinzips wurde das Maximum von Abundanz und Biomasse in den quellnahen Abschnitten mit dem eustatistischen (stabilen) Regime von Wassertemperatur, Abfluß und Protonen-Gehalt, in der Alten Riefensbeek auch von Alkalinität und ALMER-Relation erklärt. Aufgrund der natürlichen und anthropogenen Störungen war im Längslauf der untersuchten Bäche keine natürliche biozönotische Gliederung des Artenbestands erkennbar. Die Korrelationsberechnungen zwischen den Umweltfaktoren und der Taxazahl ergaben, daß in erster Linie versauerungsrelevante Parameter -- Gehalte saurer Anionen, basischer Kationen und von Metallen, Alkalinität usw. -- die höchsten Korrelationskoeffizienten mit der Taxa-Zahl hatten; unter den natürlichen Meßgrößen zählten nur die Gehalte von DOC und TIC sowie der Anteil der Sande zu der Gruppe mit den höchsten Korrelationskoeffizienten. Die Korrelationsberechnungen zwischen den Umweltfaktoren und den Abundanzen ergab dagegen, daß die quantitative Zusammensetzung der Lebensgemeinschaft nicht nur durch die anthropogene Gewässerversauerung, sondern mindestens genauso durch einige natürliche Meßgrößen beeinflußt wurde. Es gab in den Harzbächen keinen ökologischen Superfaktor, der die quantitative Zusammensetzung der Lebensgemeinschaft überwiegend bestimmte. Auch die Meßgrößen der anthropogenen Gewässerversauerung waren nicht solch ein Superfaktor. Einen ähnlich hohen Einfluß auf die quantitative Zusammensetzung der Lebensgemeinschaft hatten die geologisch bestimmten Umweltfaktoren Leitfähigkeit und TIC-Gehalt, der von der Landnutzung bestimmte DOC-Gehalt sowie der Chlorid-Gehalt, der geologisch, möglicherweise aber auch durch den Eintrag von Straßensalz bestimmt wird. Die Mischung von anthropogenen und natürlichen Faktoren wurde in einem Modell der Wirkung von abiotischen Faktoren auf Bryorheos und Hyporheos dargestellt. Als Beispiel für die zeitliche Nutzung ökologischer Nischen wurde die Verteilung der Larven und Adulten der Dryopidae (Hakenkäfer) im Hyporheos und Bryorheos untersucht. Die Larven wurden vorzugsweise im Hyporheon, die Adulten im Bryorheon angetroffen. Die untersuchten Taxa wurden in die Varianten bryorheobiont, bryorheophil, bryorheotolerant, bryorheoxen und bryorheophob bzw. hyporheobiont, hyporheophil, hyporheotolerant, hyporheoxen und hyporheophob eingeteilt, um ihre räumliche Nutzung ökologischer Nischen zu beschreiben. Die gängige Lehrmeinung, daß das Hyporheon die Kinderstube benthaler Makroinvertebraten ist, konnte für zahlreiche Taxa bestätigt werden (z.B. Habrophlebia lauta). Für die bryorheophilen Taxa (z.B. Gammarus pulex und Baetis spp.) trifft diese Lehrmeinung in den beiden Harzbächen nicht zu. Vielmehr übernimmt das Bryorheon die Funktion einer Kinderstube. Die Larven von Plectrocnemia conspersa / geniculata sowie von Baetis spp. und Amphinemura spp. / Protonemura spp. neben Gammarus pulex zeigten eine Habitatbindung, die erstgenannte Gattung an das Hyporheal, die letztgenannten 3 Taxa an untergetauchte Moospolster (Bryorheal). Die Idee von der Funktion des Hyporheals als Kinderstube der Larven und Jungtiere, als Schutzraum gegen die Verdriftung durch Strömung und vor Fraßdruck durch Räuber sowie als Ort hohen Nahrungsangebots mußte für die letztgenannten 3 Taxa abgelehnt werden. Für sie übernahm das Bryorheal diese Aufgaben. Zwar waren die beiden Bäche oligotroph und die Nahrungsqualität der Feinstkörner im Hyporheal war niedrig. Die Abundanz- und Biomasse-Werte im Bryorheos und Hyporheos gehörten aber zu den weltweit höchsten. Es wurde das Paradoxon diskutiert, daß im Hyporheon der beiden Bäche Diatomeen-Rasen gefunden wurden, obwohl das Hyporheon lichtlos sein soll. Das Hyporheon wurde als ein Ökoton zwischen Benthon / Rheon und Stygon angesehen. Es wurden vier Haupttypen des Hyporheons beschrieben. Wegen des sehr unterschiedlichen Charakters des Hyporheons in verschiedenen Fließgewässern gibt es keinen einheitlichen Satz von abiotischen und biotischen Faktoren, mit denen das Hyporheon vom Benthon und Stygon abgegrenzt werden kann. In den beiden Harzbächen ähnelte das Hyporheon mehr dem Benthon als dem Stygon. Es konnte nicht anhand der chemischen Meßgrößen vom Benthon abgegrenzt werden, sondern anhand der physikalischen Meßgrößen Trübung und der Anteile von Feinsand und Schluffe/Tone sowie anhand der biologischen Parameter Summen-Abundanz und Summen-Biomasse. Aus der Typologie des Hyporheons folgt, daß ein bestimmtes Hyporheon nicht alle in der Literatur beschriebenen Funktionen innerhalb der Fließgewässer-Aue übernehmen kann. Es wurde ein Schema entwickelt, mit dem sich die optimale Liste der Parameter für die Untersuchung eines bestimmten Hyporheons auswählen läßt. Der Tendenz in der Fließgewässer-Ökologie, immer neue Konzepte zu entwickeln, die allgemeingültig sein sollen, wurde das Konzept vom individuellen Charakter von Fließgewässer-Ökosystemen entgegengestellt.
Resumo:
Die traditionellen Empathiekonzepte (z. B. Rogers, Kohut), die in der Psychotherapie bis heute maßgebend sind, werden einer gründlichen Überprüfung unterzogen. Dabei ergeben sich drei wesentliche Kritikpunkte: (1) Empathische Vorgänge in der Psychotherapie werden als einseitige Prozesse verstanden; der Therapeut fühlt sich in die Klientin ein, nicht auch umgekehrt. (2) Empathie wird in Cartesianischer Tradition schwerpunktmäßig als kognitive Leistung gesehen; ein körperloser Geist vergegenwärtigt sich die mentalen Inhalte eines anderen. (3) Das traditionelle Empathieverständnis ist individualistisch: Therapeutin und Klient halten sich demnach scheinbar im luftleeren Raum auf. Es sieht so aus, als existiere kein Kontext, der sie umgibt. So einseitig, wie ihre Beziehung gedacht wird, so abgetrennt, wie ihr Körper von ihrem Geist zu sein scheint, so unverbunden sind sie scheinbar mit dem Rest der Welt. Aus diesen drei Kritikpunkten folgt die Notwendigkeit, den Empathiebegriff der Psychotherapie zu erweitern, d. h. (a) Empathie als gegenseitigen Prozess der Beteiligten zu begreifen, (b) ihre tiefe Verwurzelung in der Leiblichkeit des Menschen zu berücksichtigen und (c) ihre Einbettung in die Dynamiken einer gemeinsamen Situation im Rahmen eines kulturellen Kontextes einzubeziehen. Mit Rückgriff auf neuere Untersuchungsergebnisse aus der Entwicklungspsychologie (z. B. Emde, Hobson, Meltzoff, Stern, Trevarthen), der Sozial- und Emotionspsychologie (z. B. Chartrand, Ekman, Goleman, Hatfield, Holodynski), der sozialen Neurowissenschaften (z. B. Damasio, Gallese, Iacoboni, LeDoux, Rizzolatti), aber auch mit Hilfe der Erkenntnisse aus der klassischen (Husserl, Merleau- Ponty, Edith Stein) und der Neuen Phänomenologie (Schmitz) sowie aus symbolischem Interaktionismus (Mead) und aus der kulturhistorischen Schule (Vygotskij) werden diese drei bislang wenig beleuchteten Dimensionen der Empathie betrachtet. ad a) Die Gegenseitigkeit empathischer Vorgänge in der Psychotherapie wird anhand des entwicklungspsychologischen Konzepts des social referencing erläutert und untersucht: Kleinkinder, die in eine unbekannte bzw. unsichere Situation geraten (z. B. im Experiment mit der "visuellen Klippe"), orientieren sich an den nonverbalen Signalen ihrer Bezugspersonen, um diese Situation zu bewältigen. Dabei erfasst die Mutter die Situation des Kindes, versucht ihm ihre Stellungnahme zu seiner Situation zu übermitteln, und das Kind begreift die Reaktion der Mutter als Stellungnahme zu seiner Situation. ad b) Die Körperlichkeit bzw. Leiblichkeit der Einfühlung manifestiert sich in vielfältigen Formen, wie sie von der Psychologie, der Phänomenologie und den Neurowissenschaften erforscht werden. Das kulturübergreifende Erkennen des Gesichtsausdrucks von Basisemotionen ist hier ebenso zu nennen wie die Verhaltensweisen des motor mimicry, bei dem Menschen Körperhaltungen und – bewegungen ihrer Bezugspersonen unwillkürlich imitieren; des Weiteren das unmittelbare Verstehen von Gesten sowie die Phänomene der „Einleibung“, bei denen die körperliche Situation des Anderen (z. B. eines stürzenden Radfahrers, den man beobachtet) am eigenen Leib mitgefühlt wird; und außerdem die Entdeckung der „Spiegelneurone“ und anderer neuronaler Strukturen, durch die Wahrgenommenes direkt in analoge motorische Aktivität übersetzt wird. ad c) Intersubjektivitätstheoretische Überlegungen, Konzepte wie „dyadisch erweiterter Bewusstseinszustand“ (Tronick) und „gemeinsame Situation“ (Gurwitsch, Schmitz) verweisen auf die Bedeutung überindividueller, ‚emergenter’ Dimensionen, die für die Verständigung zwischen Menschen wichtig sind. Sie folgen gestaltpsychologischen Prinzipien („Das Ganze ist mehr und anders als die Summe seiner Teile.“), die mit Hilfe von Gadamers Begriff des „Spiels“ analysiert werden. Am Ende der Arbeit stehen die Definition eines neuen Empathiebegriffs, wie er sich aus den vorangegangenen Überlegungen ergibt, sowie eine These über die psychotherapeutische Wirkweise menschlicher Einfühlung, die durch weitere Forschungen zu überprüfen wäre.
Resumo:
To increase the organic matter (OM) content in the soil is one main goal in arable soil management. The adoption of tillage systems with reduced tillage depth and/or frequency (reduced tillage) or of no-tillage was found to increase the concentration of soil OM compared to conventional tillage (CT; ploughing to 20-30 cm). However, the underlying processes are not yet clear and are discussed contradictorily. So far, few investigations were conducted on tillage systems with a shallow tillage depth (minimum tillage = MT; maximum tillage depth of 10 cm). A better understanding of the interactions between MT implementation and changes in OM transformation in soils is essential in order to evaluate the possible contribution of MT to a sustainable management of arable soils. The objectives of the present thesis were (i) to compare OM concentrations, microbial biomass, water-stable aggregates, and particulate OM (POM) between CT and MT soils, (ii) to estimate the temporal variability of water-stable aggregate size classes occurring in the field and the dynamics of macroaggregate (>250 µm) formation and disruption under controlled conditions, (iii) to investigate whether a lower disruption or a higher formation rate accounts for a higher occurrence of macroaggregates under MT compared to CT, (iv) to determine which fraction is the major agent for storing the surplus of OM found under MT compared to CT, and (v) to observe the early OM transformation after residue incorporation in different tillage systems simulated. Two experimental sites (Garte-Süd and Hohes Feld) near Göttingen, Germany, were investigated. Soil type of both sites was a Haplic Luvisol. Since about 40 years, both sites receive MT by a rotary harrow (to 5-8 cm depth) and CT by a plough (to 25 cm depth). Surface soils (0-5 cm) and subsoils (10-20 cm) of two sampling dates (after fallow and directly after tillage) were investigated for concentrations of organic C (Corg) and total N (N), different water-stable aggregate size classes, different density fractions (for the sampling date after fallow only), microbial biomass, and for biochemically stabilized Corg and N (by acid hydrolysis; for the sampling date after tillage only). In addition, two laboratory incubations were performed under controlled conditions: Firstly, MT and CT soils were incubated (28 days at 22°C) as bulk soil and with destroyed macroaggregates in order to estimate the importance of macroaggregates for the physical protection of the very labile OM against mineralization. Secondly, in a microcosm experiment simulating MT and CT systems with soil <250 µm and with 15N and 13C labelled maize straw incorporated to different depths, the mineralization, the formation of new macroaggregates, and the partitioning of the recently added C and N were followed (28 days at 15°C). Forty years of MT regime led to higher concentrations of microbial biomass and of Corg and N compared to CT, especially in the surface soil. After fallow and directly after tillage, a higher proportion of water-stable macroaggregates rich in OM was found in the MT (36% and 66%, respectively) than in the CT (19% and 47%, respectively) surface soils of both sites (data shown are of the site Garte-Süd only). The subsoils followed the same trend. For the sampling date after fallow, no differences in the POM fractions were found but there was more OM associated to the mineral fraction detected in the MT soils. A large temporal variability was observed for the abundance of macroaggregates. In the field and in the microcosm simulations, macroaggregates were found to have a higher formation rate after the incorporation of residues under MT than under CT. Thus, the lower occurrence of macroaggregates in CT soils cannot be attributed to a higher disruption but to a lower formation rate. A higher rate of macroaggregate formation in MT soils may be due to (i) the higher concentrated input of residues in the surface soil and/or (ii) a higher abundance of fungal biomass in contrast to CT soils. Overall, as a location of storage of the surplus of OM detected under MT compared to CT, water-stable macroaggregates were found to play a key role. In the incubation experiment, macroaggregates were not found to protect the very labile OM against mineralization. Anyway, the surplus of OM detected after tillage in the MT soil was biochemically degradable. MT simulations in the microcosm experiment showed a lower specific respiration and a less efficient translocation of recently added residues than the CT simulations. Differences in the early processes of OM translocation between CT and MT simulations were attributed to a higher residue to soil ratio and to a higher proportion of fungal biomass in the MT simulations. Overall, MT was found to have several beneficial effects on the soil structure and on the storage of OM, especially in the surface soil. Furthermore, it was concluded that the high concentration of residues in the surface soil of MT may alter the processes of storage and decomposition of OM. In further investigations, especially analysis of the residue-soil-interface and of effects of the depth of residue incorporation should be emphasised. Moreover, further evidence is needed on differences in the microbial community between CT and MT soils.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.
Resumo:
Bauchspeicheldrüsenkrebs ist die vierthäufigste Krebstodesursache in Deutschland. Durch die tiefe Lage des Organs im Körperinneren und das späte Auftreten von Symptomen erfolgt die Diagnose meist zu einem sehr späten Zeitpunkt, zu dem eine Resektion des Tumors in 80% der Fälle nicht mehr möglich ist. Die Hälfte der Patienten verstirbt bereits im ersten Jahr nach Diagnosestellung. Nach heutiger Erkenntnis entwickeln sich Adenokarzinome der Bauchspeicheldrüse über schrittweise histologische Veränderungen, die sogenannten PanIN Läsionen (pancreatic intraepithelial neoplasia). Bis heute fehlen jedoch klinisch einsetzbare Parameter für die Früherkennung des Karzinoms und seiner Vorstufen. Bisher ist nicht vollständig geklärt, welche molekularen Veränderungen hierbei eine wesentliche Rolle spielen. Das Ziel der vorliegenden Arbeit ist, die molekular- und zytogenetische Mutationsinzidenz und -Sequenz im Verlauf der neoplastischen Progression in der PanIN-Sequenz aufzuklären. Unter Anwendung der Fluoreszenz-in-situ-Hybridisierung (FISH) wird weiterführend die Frage beantwortet, ob sich der Nachweis von zytogenetischen Veränderungen in Zellen, die endoskopisch aus dem Pankreassekret gewonnen wurden, als neuartiger Ansatz für eine Frühdiagnostik nutzen lassen. Die molekulargenetischen Analysen zeigen, dass die PanIN-Läsionen aus Geweben mit chronischer Pankreatitis denen aus Geweben mit Karzinomen gleichzusetzen sind. Veränderungen in der Anzahl einzelner Chromosomen, sowie Basenmutationen finden sich bereits in den frühesten Gangläsionen. Die diffuse Verteilung von Genmutationen lässt einen mutagenen Feldeffekt vermuten, in welchem endogene (z.B. Pankreasenzyme, oxidativer Stress) und/oder exogene (z.B. Nikotin, Alkohol) Noxen auf verschiedene Pankreasgänge während einer langen Zeit einwirken. Auf der Basis der erhaltenen Daten kann angenommen werden, dass die prä-neoplastischen Läsionen in Geweben mit chronischer Pankreatitis eine Progression durchlaufen, in der sich sporadische Defekte wie Basenmutationen und Mitosefehler (Aneuplodien) akkumulieren. Die biologische Relevanz für die Tumorentstehung sollte jedoch immer im klinischen Kontext betrachtet werden. In Kombination mit weiteren Parametern (z.B. Alter, Dauer der Pankreatitis) könnte dies eine Möglichkeit bieten, das Risiko für die Entstehung eines Karzinoms individuell zu bestimmen und somit Patienten frühzeitig genug vor der Manifestation eines Tumors einer (Teil-)Resektion des Organs zuzuführen.
Resumo:
Die vorliegende Arbeit untersuchte die Einflüsse der Bodenart und Einarbeitungstiefe von Streu auf die mikrobielle Nutzung und ihren Abbau. Anhand einer Kohlenstoffsequestrierung wurde die Verlagerung streubürtigen Kohlenstoffes in die Fraktionen CO2-C, SOC, extrahierbaren Kohlenstoff, Cmik und POM-C betrachtet. Aufgrund der Analyse der δ13C-CO2 Werte der Bodenrespiration, im Rahmen der Sequestrierung des streubürtigen Kohlenstoffes, war der Anteil der streubürtigen Bodenrespiration und somit die gesamte, zu erwartende Bodenrespiration bekannt. Durch die, bei der Kohlenstoffsequestrierung, ermittelten Werte konnte eine Plausibilitätsprüfung an vier Methoden zur Erfassung der Bodenrespiration, auf ihre Genauigkeit und mögliche Artefakte hin, durchgeführt werden. Des Weiteren wurden in einem anschließenden Freilandversuch unter subtropischen Bedingungen die Einflüsse verschiedener Dünger und Feldfrüchte, in Abhängigkeit der Streuqualität, auf den Streuabbau und die mikrobielle Besiedelung hin untersucht. Im ersten Versuch (Kapitel 3), wurde anhand eines Säulenversuches der Einfluss der Einarbeitungstiefe, in Anhängigkeit der Bodenart, auf den Streuabbau untersucht. Dieses ist von großer Bedeutung, da auf landwirtschaftlich genutzten Flächen Streu und so genannte "Grüne Dünger" durch den Einsatz unterschiedlicher Bodenbearbeitungssysteme, wie z.B. der Kreiselegge oder dem Wendepflug, in unterschiedliche Tiefen eingearbeitet werden. Die Verlagerung streubürtigen mikrobiellen Kohlenstoffes per Pilzhyphen, über eine Distanz von bis zu 20 cm wurde innerhalb dieser Arbeit das erste Mal gezeigt. Bisherige Studien zeigten einzig einen Transport von streubürtigem Kohlenstoff per Pilzhyphen, über eine kurze Distanz von der Detritussphäre in den angrenzenden Boden. Der höhere Anteil streubürtigen mikrobiellen Kohlenstoffes innerhalb der von der Streuschicht weiter entfernten Schichten im sandigen Boden, im Vergleich zum lehmigen Boden zeigte, dass das feine Porenvolumen des lehmigen Bodens den Transport Streubürtigen Kohlenstoffes per Pilzhyphen grundsätzlich behindert. Diese Annahme wurde durch die stärkere Abnahme des Anteils streubürtigen mikrobiellen Kohlenstoffes, mit zunehmender Entfernung zur Streuschicht, im lehmigen Boden im Vergleich zum sandigen Boden unterstützt. Es ist davon auszugehen, dass der sandige Boden zusätzlich durch die höhere Porosität eine erhöhte Sauerstoffdurchlässigkeit und somit, in den tieferen Schichten bessere Wachstumsbedingungen für Mikroorganismen bietet als der lehmige Boden. Durch die Ausbreitung substratbürtigen mikrobiellen Kohlenstoffes wurde im sandigen Boden mehr streubürtiger Kohlenstoff durch Mikroorganismen inkorporiert als im lehmigen Boden. Ein weiterer Grund für die geringere Verlagerung von streubürtigem Kohlenstoff in die mikrobielle Biomasse des lehmigen Bodens ist wahrscheinlich der bessere physikalische Schutz durch den höheren Tonanteil. Durch die Einarbeitung der Streu stieg in allen Ansätzen der Gehalt an Ergosterol, welcher ein wesentlicher Indikator für die Präsenz saprotropher Pilze ist. Besonders stark ausgeprägt war der Anstieg des Ergosterolgehaltes, sowie des Ergosterol / mikrobielle Biomasse C – Quotienten, wenn Streu in die untere Schicht (15 - 20 cm) ein-gearbeitet wurde. Diese tiefenspezifischen Unterschiede wurden bisher in noch keinem weiteren Versuch beobachtet und können auf die Entwicklung unterschiedlicher pilzlicher Gemeinschaften zurück zu führen sein. Es ist jedoch wahrscheinlicher, dass pilzliche Nekromasse in den oberen Bodenschichten schneller umgesetzt wird und somit bei der Ergosterolbestimmung nicht mit erfasst wird. Da der Umsatz der pilzlichen Nekromasse im porösen sandigen Boden, aufgrund der höheren Sauerstoffverfügbarkeit und des geringeren physikalischen Schutzes, vermutlich höher ist als im lehmigen Boden, wird diese Annahme durch den im sandigen Boden geringeren Gehalt an mikrobiellen Kohlenstoff unterstützt. Wie erwartet, überstieg die Mineralisation der Streu im sandigen Boden die der im lehmigen Boden. Jedoch anders als erwartet, unterschied sich die Mineralisation in Abhängigkeit der Einarbeitungstiefe, mit einer erhöhten Mineralisation bei Einarbeitung der Streu in 0 - 5 cm Tiefe, einzig im sandigen Boden. Die Berechnung des Ertragskoeffizienten zeigte, dass die Substratsnutzungseffizienz der Mikroorganismen im sandigen Boden signifikant geringer war als die im lehmigen Boden. Die Zugabe von Streu führte in beiden Böden, verstärkt jedoch im lehmigen Boden, zu einem positiven Priming Effekt, der in beiden Bö-den stärker ausgeprägt war, als Streu in 0–5 cm Tiefe eingearbeitet wurde. Trotz Abnahme der SOC-bürtigen mikrobiellen Biomasse stieg die Mineralisation des SOC stark an. Es ist anzunehmen, dass extrazelluläre Enzyme wie Cellulase und Lignin modifizierende Enzy-me, produziert von saprotrophen Pilzen, zum Abbau von Cellolose und Lignin der Streu, zum Teil sehr effizient SOC abbauen. Im zweiten Versuch (Kapitel 4) wurde anhand des gleichen Säulenversuches (Versuch 1; Kapitel 3) der Einfluss der Entfernung von CO2-hot-spots im Boden zur Bodenoberfläche, in Abhängigkeit der Bodenart, auf vier verschiedene Methoden zur Erfassung der Bodenrespiration betrachtet. Zusätzlich wurde durch eine Plausibilitätsprüfung anhand der Kohlenstoffbilanz, basierend auf der in Versuch 1 durchgeführten Kohlenstoffsequestrierung, die Genauigkeit der vier Methoden in Abhängigkeit der Bodenart überprüft. Für beide Ansätze mit sandigem Boden zeigen IR und PAS eine deutliche Überschätzung der mit NaOH und GC bestimmten Bodenrespiration. Die Überschätzung durch IR ist dabei auf die durch die dynamische Haube verursachten Turbulenzen und deren Auswirkungen auf den porösen sandigen Boden zurück zu führen. Bei geringen Respirationsraten, wie bei der Kontrolle, zeigt die Messung mittels IR trotz Turbulenzen, verursacht durch den Ventilator der Haube, keine Überschätzung. Die Überschätzung durch PAS hingegen kann nicht auf Turbulenzen, verursacht durch die dynamische Haube, zurück geführt werden, da bei den Analysen mit PAS und GC identische Hauben, höher und größer als bei IR, eingesetzt wurden und die Bodenrespiration durch GC nicht überschätzt wurde. Im Gegensatz zu beiden sandigen Ansätzen überschätzt IR die Bodenrespiration im lehmigen Boden nicht. NaOH hingegen unterschätzt die Bodenrespiration, wenn Streu in 15-20 cm Tiefe des lehmigen Bodens eingearbeitet ist. Dieses ist dadurch zu erklären, dass, bedingt durch die geringere Porosität sowie das höhere Wasserhaltevermögen und dem daraus resultierenden geringeren Luft gefüllten Porenvolumen, die Diffusion von CO2 im lehmigen Boden langsamer ist als im sandigen Boden. Nach Absorption des CO2 der Haubenluft diffundiert das CO2 des CO2-hot-spots in 15-20 cm Tiefe, entlang des Diffusionsgradienten, aufgrund des Diffusionswiderstandes in lehmigen Boden langsamer zur Oberfläche als im sandigen Boden oder wenn der CO2-hot-spot direkt unter der Bodenoberfläche liegt. Da bei der Messung mit der dynamischen Haube diese nur kurz auf der Fläche verbleibt, beeinflusst der Diffusionsgradient diese Messungen nicht. Hinzukommt, dass bei den Messsystemen, die in Kombination mit der dynamischen Haube eingesetzt werden, im Gegensatz zur Absorption durch Lauge keine CO2 Abreicherung stattfindet und die Diffusion von CO2 aus dem Boden über lange Zeit bis zu hohen CO2 Konzentration in der Haube linear bleibt. Alle drei mit einer dynamischen Haube kombinierten Methoden zeigen mit Korrelations-koeffizienten zwischen 0,90 und 0,93 starke Korrelationen mit NaOH. Während PAS die Bodenrespiration im Verhältnis zu NaOH immer überschätzt, tritt eine Überschätzung durch GC nur bei Mineralisationsraten unter 500 mg m-2 h-1 und für IR bei Mineralisations-raten über 40 mg m-2 h-1 ein. Die Plausibilitätsprüfung zeigt, dass für sandigen Boden, mit NaOH und GC eine sehr exakte Wiederfindung von Kohlenstoff erreicht wird, wohingegen IR und PAS in der Wiederfindung von Kohlenstoff bei deutlich über 100 % liegen. Für den lehmigen Boden hingegen ist nach Entfernung der CO2-hot-spots zur Bodenoberfläche zu differenzieren. Befindet sich der CO2-hot-spot direkt unter der Bodenoberfläche ist die Wiederfindung von Kohlenstoff für NaOH, GC und IR sehr exakt. Befindet sich der CO2-hot-spot jedoch in 15-20 cm Tiefe, ist die Wiederfindung des Kohlenstoffes durch NaOH deutlich unter 100 %. Die Wiederfindung durch PAS liegt sowohl für den sandigen als auch für den lehmigen Boden immer deutlich über 100 %. Im dritten Versuch (Kapitel 5), wurde anhand eines Litterbag-Versuches im Norden des Omans, der Einfluss verschiedener Dünger und Feldfrüchte auf den Abbau von Streu auf landwirtschaftlich genutzten Flächen in Abhängigkeit der Streuqualität betrachtet. Bei dem Großteil bisheriger Streuabbauversuche, unter gemäßigten und subtropischen Klimaten, stand der Abbau von Streu im Wald im Fokus der Betrachtung. Die wenigen Versuche zum Streuabbau auf landwirtschaftlich genutzten Flächen beschränken sich auf die gemäßigten Klimate. Wohingegen der Abbau von Streu, sowie der Einfluss von Dünger und Feldfrucht unter subtropischen Bedingungen, zum ersten mal mit der vorliegenden Arbeit fokussiert wurde. Der Verlust an organischem Material war verglichen mit Versuchen un-ter gemäßigten Klimaten, bei allen vier Streuarten, generell hoch. Der höhere Abbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu ist auf Unterschiede der Streuqualität zurückzuführen. Neben der Verwertbarkeit durch Mikroorganismen beeinflusst die Streuqualität zusätzlich die "Schmackhaftigkeit" der Streu für Organismen der Mesofauna. Wodurch ein selektiver Transport und/oder Grazing von Mikroorganismen stattfindet. Der geringere Abbau der Luzernenstreu verglichen mit Maisstreu jedoch ist nicht auf die Streuqualität sondern auf die geringere mikrobielle Besiedelung der Luzernenstreu während der Versuchszeit zurückzuführen. Der Unterschied im Grad der mikrobiellen Besiedelung kann durch die erhobenen Daten nicht erklärt werden. Es ist jedoch davon auszugehen, dass Leguminosen Substanzen wie z.B. Polyphenole enthalten, welche die mikrobielle Biomasse und im Besonderen die pilzliche Biomasse in beachtlichem Umfang inhibitieren. Ebenso wenig ist der höhere Abbau von Weizenstreu verglichen mit Rapsstreu durch die Streuqualität zu begründen. Eine mögliche Erklärung für den geringeren Abbau der Rapsstreu kann ihr hoher Aluminium Gehalt sein. Es ist jedoch wahrscheinlicher, dass die Rapsstreu organische Substanzen wie Glucosinolate enthält, welche den mikrobiellen Streuabbau inhibitieren. Während der Hemicellulosegehalt am Ende des Versuches nicht durch die Streuqualität beeinflusst war, zeigten Cellulose und Lignin quali-tätsabhängige Effekte. Der stärkere Abbau von Cellulose bei Luzernen- und Maisstreu ist auf den anfänglich höheren Stickstoffgehalt zurückzuführen, wodurch die Produktion und Aktivität von Cellulose degradierenden Enzymen, wie Exo-Cellulase, Endo-Cellulase und Xylanase, anstieg. Es ist davon auszugehen, dass die Differenzen im Celluloseabbau von Luzernen- und Maisstreu im Vergleich zu Raps- und Weizenstreu, neben Unterschieden im anfänglichen Stickstoffgehalt, auf den höheren Schutz von Cellulose durch Lignin in Raps- und Weizenstreu zurückzuführen sind. Während der initial geringe Stickstoffgehalt den Ligninabbau in Raps- und Weizenstreu unterstützt, ist die relative Anreicherung von Lignin in Luzernen- und Maisstreu hingegen auf den initial hohen Stickstoffgehalt zurückzuführen. Dem entgegen hat die Zusammensetzung weiterer Nährstoffe einen sehr geringen Effekt. Es ist jedoch möglich, dass stärkere Effekte durch den Eintrag von Boden in die Litterbags durch Organismen der Mesofauna, Wurzelwachstum oder physikalische Verlagerung überdeckt werden. Während unter organische Düngung, die pilzliche Biomasse ansteigt, fördert der leicht verfügbare Stickstoff der mineralischen Düngung die Bildung bakterieller Biomasse. Der höher Gehalt an pilzlicher Biomasse unter organischer Düngung zeigte keinen generellen Effekt auf den Abbau von Kohlenstoff. Er führte jedoch zu einer Veränderung in der Streuzusammensetzung. Die verringerte Abnahme bzw. verstärkte Zunahme der Nährstoffgehalte bei organischer Düngung ist durch den Eintrag dünger-bürtiger Nährstoffe, im Besonderen durch die verstärkte Bildung pilzlicher Hyphen in die Litterbags hinein, zu erklären. Trotz höherer Gehalte an pilzlicher Biomasse war der Ligningehalt am Ende des Versuches unter organischer Düngung höher als unter mineralischer Düngung. Diese ist auf den Eintrag düngerbürtiger Pilze zurückzuführen, welche eine geringere Lignindegradierungseffizienz aufweisen. Der Einfluss der Feldfrucht auf den Streuabbau äußert sich durch höhere Gehalte mikrobieller und im Besonderen pilzlicher Biomasse, und durch geringere Gehalte an N, P, Ca, Na und K in, im Litterbag verbleiben-der Streu, unter dem Anbau von Mohrrüben. Der Anstieg der pilzlichen Biomasse führt, ebenso wie bei der organischen Düngung zu keinem generellen Anstieg der Kohlenstoffdegradation, zeigt jedoch einen selektiven Effekt auf den Abbau von Cellulose. Der Einfluss, sowohl auf die mikrobielle Biomasse, als auch auf den Nährstoffgehalt, zeigt die Bedeutung der Unterschiede im Wurzelwachstum, der Rhizodeposition sowie des Nährstoffbedarfs in Abhängigkeit der Feldfrucht. Trotz großer Unterschiede der Streuarten im anfänglichen Gehalt mikrobieller Biomasse war dieser am Ende des Versuches für alle Streuarten identisch. Dieses war Folge eines starken Anstiegs der pilzlichen Biomasse bei Luzernen- und Maisstreu sowie einer Abnahme der pilzlichen Biomasse bei Raps- und Weizenstreu, welche zuvor noch nicht beobachtet wurde. Dieses macht den Einfluss der anfänglichen mikrobiellen Biomasse auf deren Entwicklung während des Streuabbauprozesses im Boden deutlich. Es ist anzunehmen, dass ein Teil der anfänglichen pilzlichen Biomasse der Raps- und Weizenstreu, welche sich unter gemäßigten Klimaten entwickelte, unter subtropischen Bedingungen nicht überlebensfähig war. Generell war der Streuabbau durch Pilze dominiert. Es zeigte sich jedoch, dass Unterschiede im Pflanzenmaterial einen Einfluss auf die bakterielle Biomasse hatten, Unterschiede in Düngung und Feldfrucht hingegen die pilzliche Biomasse und die bakterielle Biomasse beeinflussten.
Resumo:
Die Arbeit untersucht ein Format der modernen Architektur: Tiefe Geschossbauten. Diese werden definiert als kompakte Gebäude mit mindestens vier Geschossebenen von mindestens 25 Metern Seitenlänge in beiden Richtungen ("tiefe Grundrisse", "deep plans") ohne zentralen Kern oder zentrales Atrium. Anstelle der Nutzung wird die Gebäudetiefe als entscheidender typologischer Parameter herausgearbeitet. Der einheitlich durchgehende Abbildungsmaßstab von 1:1000 für Grundrisse und Schnitte erlaubt den unmittelbaren visuellen Vergleich innerhalb der vorgestellten Gebäudereferenzen. Von den drei Teilen der Arbeit betrachtet Teil I die Referenzen der Zeit zwischen 1890 und 1990. Teil II untersucht die Referenzen seit 1990. Während für den ersten Teil eine chronologische Gliederung gewählt wurde, werden die Referenzen des zweiten Teils unter morphologischem Blickwinkel gruppiert. Dieser Wechsel der Perspektive signalisiert, wie in Teil III weiter ausgeführt wird, dass die neueren Referenzen als Entfaltung von Möglichkeiten, die in früheren Phasen der architektonischen Moderne angelegt waren, interpretiert werden können. Die Arbeit liegt somit in der Schnittmenge von Architekturgeschichte, Gebäudekunde und Entwurfstheorie.