996 resultados para Ehrenamtliche Arbeit


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit beschäftigt sich mit der Frage, wie Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken können und welche Leistungen von ihnen erbracht werden können. Dabei wird der Fokus darauf gerichtet, ob mit einer optimalen organisatorischen und methodischen Herangehensweise ein Inventar historischer Kulturlandschaftselemente erstellt werden kann, das auch den Anforderungen für eine planerische Anwendung genügt. Forschungsschwerpunkte der Arbeit sind entsprechend die Inventarisierung historischer Kulturlandschaftselemente und die Anforderungen an die dabei erstellten Inventare sowie die Möglichkeiten für bürgerschaftliches Engagement bei der Inventarisierung. Darüber hinaus wird der Frage nachgegangen, ob mit dem bürgerschaftlichen Engagement bei der Inventarisierung ein sonstiger Mehrwert verbunden ist. Die Untersuchung wird anhand von Fallstudien durchgeführt. Empirische Grundlage sind acht ausgewählte Beispielprojekte, in denen Bürger an der Inventarisierung historischer Kulturlandschaftselemente mitwirken bzw. diese durchführen. Um einen möglichst großen Erfahrungspool zu erschließen wurden Fallbeispiele gewählt, die sich u. a. hinsichtlich der Rahmenbedingungen, der Organisationsstrukturen, dem Maß und der Art der Mitwirkung von Bürgern unterscheiden. Die detaillierte Analyse dieser Projekte und die Evaluierung der in ihrem Rahmen erstellten Inventare ist Hauptgegenstand dieser Arbeit und eine Grundlage für die Entwicklung von Empfehlungen für bürgerschaftliches Engagement bei der Inventarisierung historischer Kulturlandschaftselemente. Die Datenerhebung für die Analyse und Evaluierung erfolgt in erster Linie mittels Befragungen. Die Untersuchung zeigt, dass durch bürgerschaftliches Engagement wertvolle Beiträge zur Inventarisierung historischer Kulturlandschaftselemente geleistet werden können. In der Bevölkerung gibt es sowohl Interesse an der aktiven Mitwirkung als auch Kompetenzen, um unter Anleitung historische Kulturlandschaftselemente zu erfassen. Es müssen jedoch einige methodische Hinweise berücksichtigt und Maßnahmen getroffen werden, um Defizite, die sich durch die Erfassung durch Freiwillige ergeben können, zu vermeiden. So ist es bspw. zwingend notwendig, organisatorische Strukturen, Methoden und Standards vorzugeben, die Freiwilligen anzuleiten und ggf. zu unterstützen sowie die erhobenen Daten zu prüfen und in einem gewissen Umfang auch zu qualifizieren. Wenn die Inventarisierungen von Fachexperten aufgebaut und gesteuert werden, kann verhindert werden, dass die methodische Vorgehensweise von den fachlichen Anforderungen abweicht, und dass falsch erhobene und bewertete Daten verbreitet werden. Nicht von der Hand zu weisen ist der hohe Organisations- und Betreuungsaufwand sowie der Aufwand zur Prüfung und Nachbesserung der Daten, der mit der Beteiligung von Bürgern einhergeht. Doch selbst wenn die erfassten Daten der Bürger nur eine Grundlage bilden, die geprüft und für eine planerische Verwendung weiter qualifiziert werden muss, können durch die Einbindung von Bürgern wichtige Beiträge zum Erhalt der Kulturlandschaft geleistet werden. Neben der Datenerfassung werden zahlreiche Bürger für das Themenfeld Kulturlandschaft sensibilisiert, so dass die Anliegen zum Erhalt der Kulturlandschaft in weiten Teilen der Bevölkerung an Bedeutung gewinnen und verankert werden können. Um das Potenzial bürgerschaftlichen Engagements für die Inventarisierung historischer Kulturlandschaftselemente optimal nutzen zu können, und um möglichst bundes- oder landesweit einheitliche Inventare zu erstellen die Akzeptanz finden und für die Planung und weitere Anwendungszwecke genutzt werden, besteht noch Entwicklungs- und Abstimmungsbedarf. Manche Entwicklungen stehen nicht in Zusammenhang mit der Beteiligung von Bürgern, sondern sind generell notwendig, um einheitliche und möglichst landes- oder gar bundesweite Inventarisierungen historischer Kulturlandschaftselemente zu realisieren. Dies betrifft z. B. die Konsensfindung unter den Behörden und Fachstellen bezüglich methodischer Fragen und der Zuständigkeiten oder die Entwicklung eines geeigneten GIS-basierten Online-Inventars.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit dem Werk des französischen Philosophen Gilles Deleuze (1925-1995), indem sie dessen vielfältig-pluralistisches, in mancher Hinsicht sogar heterogenes Denken in einen Zusammenhang mit vitalistischen Philosophien der ersten Hälfte des 20. Jahrhunderts stellt (an erster Stelle Henri Bergson, aber auch Hans Driesch und Jakob von Uexküll), um auf diese Weise – durch Vergleiche und Gegenüberstellungen - zu verdeutlichen, dass und inwiefern der Vitalismus in der Version von Deleuze unter dem Eindruck der Entwicklung der Biologie seit Darwin (für die hier besonders die wissenschaftsphilosophischen Überlegungen der französischen Molekularbiologen François Jacob und Jacques Monod herangezogen werden) nicht mehr in erster Linie naturphilosophisch verstanden werden kann, sondern experimentell. Das, womit hier gedanklich experimentiert wird, sind Intensitäten. Und Intensität – so wird dargelegt – ist der Schlüsselbegriff zum Verständnis von Deleuzes’ erstem philosophischen Hauptwerk „Differenz und Wiederholung“. Im Zeichen eines Denkens der Intensitäten versucht Deleuze etablierte Dualismen wie die von Natur (physis) und Kunst (techné), Mensch und Tier, Individualität und Allgemeinheit zu unterlaufen. Weil dieser Versuch sich selbst als ein – wie es in dem von Deleuze gemeinsam mit dem Psychiater Félix Guattari verfassten Buch „Tausend Plateaus“ heißt - Vorstoß in "eine Welt aus formlosen, gegenstandslosen und gesichtslosen Schnelligkeiten und Langsamkeiten" versteht, stellt sich mit der Frage nach den lebenspraktischen Aspekten dieses grenzüberschreitenden und Freiräume eröffnenden Vorhabens auch die nach den damit verbundenen Risiken und Nebenwirkungen. Zur Konkretisierung werden Beispiele aus der modernen Literatur (die Verzeitlichung des Denkens bei Marcel Proust, aber auch die existentielle Sprachskepsis Antonin Artauds), der bildenden Kunst (die Deformationskunst in der Malerei Francis Bacons) und der Moral- bzw. moralkritischen Philosophie (der Stoizismus als eine Art Kunst der Selbstverteidigung, Nietzsches Umwertung aller Werte als eine Kunst der Selbstüberbietung) erörtert. Was in diesen Praktiken stattfindet und zum Ausdruck gebracht wird, sind Zerreißproben, d. h. radikale Belastungen oder Erprobungen von Vermögen wie Sinnlichkeit, Einbildungskraft, Denken, weshalb diese Versuche mit Deleuze, der sich hier von den stilpsychologischen Untersuchungen des Kunsthistorikers Wilhelm Worringer hat inspirieren lassen, als Spielarten eines nichtorganischen Lebens zu verstehen sind. Sich darauf in einem ständigen Wechsel von Annäherung und Distanzierung einzulassen, macht das ausgeprägte Pathos der Philosophie aus, auf das man im Denken von Gilles Deleuze trifft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die langfristig sichere und bezahlbare Versorgung von Mietern mit Wohnraum ist ein wichtiger Gesichtspunkt bei der Entscheidung von Wohnungsunternehmen, welche Objekte in welchem Umfang und wann energiesparend modernisiert werden. Eine integrierte Analyse der Wohnkostenbelastung (= Quotient aus Bruttowarmmiete und Haushaltsnettoeinkommen) im Zeitverlauf wurde bislang für die GdW-Wohnungsunternehmen noch nicht vorgenommen. Diese Arbeit schafft ein Modell für die Darstellung der zeitlichen Entwicklung der Wohnkostenbelastung. Ziel ist es, die Auswirkungen von Investitionsentscheidungen für energetische Modernisierungen besser zu verstehen. Als Eingangsdaten wurden soweit wie möglich empirische Daten für alle Bestandteile der Wohnkosten sowie für die entsprechenden Preissteigerungsraten und Einkommensentwicklungen zusammengestellt, die nun auch für die weitere Forschung zur Verfügung stehen. Es werden in der Arbeit 18 Gebäudetypen definiert, die sich nach Stand der energetischen Modernisierung und nach Energieträger unterscheiden und die 97% der durch GdW-Unternehmen bewirtschafteten Wohnungen abbilden. Für diese Typen wird die Entwicklung der Wohnkostenbelastung in verschiedenen Szenarien diskutiert. Besonders ausführlich werden Entwicklungen der Wohnkostenbelastung bei überdurchschnittlicher Anfangswohnkostenbelastung analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Trocknung ist eines der am häufigsten verwendeten Verfahren, um die Haltbarkeit von landwirtschaftlichen Gütern zu verlängern. Von den vielen gebräuchlichen Trocknungsarten ist die Konvektionstrocknung, die Luft als Energie- und Feuchteträger verwendet, weiterhin die wichtigste. Trotz ihrer Nachteile und ihres hohen spezifischen Energieverbrauchs sind Satztrockner für die Getreide-, Kräuter- und Heutrocknung noch weit verbreitet. Ferner werden Konvektionstrockner gemeinhin zur künstlichen Trocknung eingesetzt. Diese Arbeit ist Teil eines Forschungsprojekts, welches eine sorptionsgestützte solare Trocknung von landwirtschaftlichen Gütern untersucht. Bei dieser wird kühle feuchte Luft in Kontakt mit einer konzentrierten hygroskopischen Salzlösung gebracht. Während dieses Prozesses wird die Luft entfeuchtet und mit Hilfe der freigesetzten Verdampfungsenthalpie erwärmt. Die Anwendung dieses Verfahrens zur Trocknung landwirtschaftlicher Güter ist besonders interessant für Produkte, die bei niedrigen Temperaturen verarbeitet werden, um ihre Qualität nicht negativ zu beeinflussen. Bei allen energieintensiven Prozessen und vor allem bei der Verwendung von Solarenergie ist ein effizienter Energieverbrauch äußerst wichtig für den technischen und ökonomischen Erfolg. Eine ungleichmäßige Trocknung ist oftmals bei Satztrocknern zu beobachten, was die Energieeffizienz negativ beeinflusst. Aus diesem Grund lag im agrartechnischen Teil des Projekts der Schwerpunkt auf der Trocknung bei niedrigen Temperaturen und geringer Luftfeuchte, die der Sorptionsprozess liefert, sowie auf der Verbesserung der Luftverteilung und der Gleichmäßigkeit der Trocknung in lockeren und verdichteten Schüttungen. Es wurden Dünnschicht-Trocknungsexperminente für Blattsellerie bei unterschiedlichen Lufttemperaturen und unterschiedlicher relativer Luftfeuchte durchgeführt. Die Ergebnisse zeigen eindeutig, dass nicht nur die Lufttemperatur einen großen Einfluss auf die Trocknungsgeschwindigkeit hat, sondern auch die relative Luftfeuchte. Dies ist vor allem bei niedrigen Temperaturen, wie sie vom Sorptionssystem geliefert werden, der Fall. Um die Luftverteilung und Gleichmäßigkeit der Trocknung lockerer Schüttungen zu untersuchen, wurde ein Kistentrockner experimentell und in Strömungssimulationen getestet. Die Leistung des ursprünglichen Trockners wurde signifikant durch einfache Veränderungen des Designs verbessert. Diese stellten einen gleichmäßigeren Luftstrom durch das Produkt sicher. Die Trocknung von Heu-Rundballen stellt eine Herausforderung dar, da diese sehr stark verdichtet sind und die Dichte innerhalb eines Ballens stark schwankt. Strömungs- und Trocknungssimulationen so wie experimentelle Messungen zeigten, dass das Trocknerdesign einen großen Einfluss auf die Gleichmäßigkeit der Trocknung hat. Bei den einfachsten Trocknervarianten war die Verteilung auch bei optimal gepressten Ballen unzureichend, während komplexere Trockner eine gleichmäßigere Trocknung erzielten. Jedoch werden auch hier die Ergebnisse stark von der Verteilung der Dichte im Ballen beeinflusst, welche in der Praxis weiterhin nicht ideal ist. Abschließend wurde, um den Trocknungsfortschritt zu überwachen, eine Methodik getestet, bei der zur Messung des durchschnittlichen aktuellen Feuchtegehalts des Produktes psychrometrische Messungen und Messungen des Luftstroms in kurzen Abständen durchgeführt wurden. Die Menge des tatsächlich entfernten Wassers stimmte in den meisten Fällen gut mit der geschätzten Menge überein. Jedoch hängt der Erfolg dieser Methode stark von der Genauigkeit der Messfühler ab.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel der vorliegenden Arbeit war es, den Mischfruchtanbau von Sommer- oder Wintererbsen und Getreide zu bewerten und die Eignung einer flachwendenden Bodenbearbeitung im ökologischen Erbsenanbau zu ermitteln. Weiterhin war im Rahmen dieser Arbeit beabsichtigt, den Einfluss einer mechanischen Bodenbelastung zur Saat auf die Leistungsfähigkeit von Sommererbsen in Reinsaat und Gemenge nach tief- (Pflug, 25-30 cm) und flachwendender (Stoppelhobel, 7-12 cm) Bodenbearbeitung zu untersuchen. Zu diesem Zweck wurden Feldversuche mit den Versuchsfaktoren Anbauform (Sommererbsen und Hafer in Reinsaat oder Gemenge), Pflugsystem (flach- und tiefwendend), mechanische Bodenbelastung (0 t; 2,6 t; 4,6 t Hinterradlast) und Standort (Köllitsch, Trenthorst) in 2009 und 2010 durchgeführt. Der Mischfruchtanbau zweier Wintererbsen-Sorten (E.F.B. 33: normalblättrig, buntblühend; James: halbblattlos, weißblühend) nach flach- und tiefwendender Bodenbearbeitung wurde am Standort Trenthorst in den Jahren 2009/10 und 2010/11 untersucht. Zur Untersuchung der Vorfruchtwirkung wurde im Anschluss an die Wintererbsen-Versuche Winterweizen angebaut. Ein Gefäßversuch und ein Bioassay wurde ergänzend zu den Mischfruchtversuchen mit Sommererbsen durchgeführt, um die Ursachen eines unterschiedlichen Unkrautunterdrückungsvermögens in Reinsaaten und Gemenge von Sommererbsen und Hafer bestimmen zu können. Mischfruchtbestände von Erbsen und Getreide unterdrückten annuelle Unkräuter stärker als Erbsen-Reinsaaten, was insbesondere bei halbblattlosen Erbsen zu beobachten war. Die Ergebnisse weisen darauf hin, dass eine stärkere unterirdische Interaktion zwischen Kulturpflanzen und Unkräutern für die stärkere Unkrautunterdrückung in Erbsen-Hafer-Gemengen im Vergleich zu Erbsen-Reinsaaten verantwortlich war. Die flachwendende Bearbeitung führte in Sommererbsen-Reinsaaten zu einem signifikant höheren Unkrautaufkommen, wohingegen in den Erbsen-Hafer-Gemengen eine vergleichbare (Köllitsch) oder signifikant höhere (Trenthorst) Verunkrautung nach flachwendender Bearbeitung vorhanden war. In den Wintererbsen-Versuchen waren keine signifikanten Unterschiede hinsichtlich des Unkrautaufkommens zwischen den Pflugsystemen festzustellen. Der Mischfruchtanbau von Wintererbsen und Triticale reduzierte den Befall mit der Grünen Erbsenblattlaus und verbesserte die Standfestigkeit der normalblättrigen Wintererbse, wohingegen kein positiver Effekt des Mischfruchtanbaus in Hinsicht auf Auswinterungsverluste der Wintererbsen und einen Befall mit dem Erbsenwickler festgestellt werden konnte. Die Mischfruchtbestände von Sommer- oder Wintererbsen und Getreidepartnern wiesen unter der Voraussetzung, dass keine Ertragsbildungsprobleme beim Getreide auftraten, höhere Gesamterträge im Vergleich zu den entsprechenden Erbsen-Reinsaaten auf. Die Getreidepartner unterdrückten in den Mischfruchtbeständen insbesondere die halbblattlosen Erbsen. Die flachwendende Bodenbearbeitung führte im Vergleich zur tiefwendenden Bearbeitung zu einer vergleichbaren oder signifikant besseren Ertragsleistung der Rein- und Mischfruchtbestände von Erbsen und Getreide. Die mechanische Bodenbelastung hat die Ertragsleistung und die Kornqualität der Kulturen im Jahr 2009 nicht beeinflusst. Im Jahr 2010 führte die mechanische Bodenbelastung, im Gegensatz zum Hafer, zu einer Reduzierung der Erbsen-Erträge um 12,1 % (2,6 t) und 20,8 % (4,6 t). Zudem nahmen der Rohproteingehalt der Erbsen und die Gesamterträge mit zunehmender mechanischer Bodenbelastung nach tiefwendender Bodenbearbeitung kontinuierlich ab, wohingegen nach flachwendender Bearbeitung keine signifikanten Unterschiede festgestellt wurden. Der Winterweizen, der nach den Rein- und Mischsaaten von E.F.B. 33 angebaut wurde (2010/11: 35,9; 2011/12: 20,1 dt TM ha-1), war dem Winterweizen nach den Rein- und Mischsaaten von James (2010/11: 23,8; 2011/12: 16,7 dt TM ha-1) ertraglich überlegen. Während im Jahr 2010/11 kein signifikanter Unterschied der Ertragsleistung der Nachfrucht Winterweizen in den beiden Pflugsystemen festgestellt wurde, führte die flachwendende Bodenbearbeitung im Jahr 2011/12 zu signifikant geringeren Winterweizen-Erträgen (12,9 dt TM ha-1) im Vergleich zur tiefwendenden Bodenbearbeitung (20,5 dt TM ha-1). Der metabolische Energiegehalt der weißblühenden Winter- (15,2 MJ kg-1) und Sommererbsen (15,7 MJ kg-1) lag signifikant über demjenigen der buntblühenden Wintererbsen-Sorte E.F.B. 33 (13,3 MJ kg-1). Das Pflugsystem hatte nur geringe Auswirkungen auf die Kornqualität und den energetischen Futterwert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this work investigation of the QDs formation and the fabrication of QD based semiconductor lasers for telecom applications are presented. InAs QDs grown on AlGaInAs lattice matched to InP substrates are used to fabricate lasers operating at 1.55 µm, which is the central wavelength for far distance data transmission. This wavelength is used due to its minimum attenuation in standard glass fibers. The incorporation of QDs in this material system is more complicated in comparison to InAs QDs in the GaAs system. Due to smaller lattice mismatch the formation of circular QDs, elongated QDs and quantum wires is possible. The influence of the different growth conditions, such as the growth temperature, beam equivalent pressure, amount of deposited material on the formation of the QDs is investigated. It was already demonstrated that the formation process of QDs can be changed by the arsenic species. The formation of more round shaped QDs was observed during the growth of QDs with As2, while for As4 dash-like QDs. In this work only As2 was used for the QD growth. Different growth parameters were investigated to optimize the optical properties, like photoluminescence linewidth, and to implement those QD ensembles into laser structures as active medium. By the implementation of those QDs into laser structures a full width at half maximum (FWHM) of 30 meV was achieved. Another part of the research includes the investigation of the influence of the layer design of lasers on its lasing properties. QD lasers were demonstrated with a modal gain of more than 10 cm-1 per QD layer. Another achievement is the large signal modulation with a maximum data rate of 15 Gbit/s. The implementation of optimized QDs in the laser structure allows to increase the modal gain up to 12 cm-1 per QD layer. A reduction of the waveguide layer thickness leads to a shorter transport time of the carriers into the active region and as a result a data rate up to 22 Gbit/s was achieved, which is so far the highest digital modulation rate obtained with any 1.55 µm QD laser. The implementation of etch stop layers into the laser structure provide the possibility to fabricate feedback gratings with well defined geometries for the realization of DFB lasers. These DFB lasers were fabricated by using a combination of dry and wet etching. Single mode operation at 1.55 µm with a high side mode suppression ratio of 50 dB was achieved.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Arbeit mit dem Titel "Ἐμπόρια- Eine wirtschafts- und kulturhistorische Studie zu den Handelsbeziehungen zwischen dem Imperium Romanum und Indien (1. - 3. Jh. n. Chr.)" ist in die antike Wirtschaftsgeschichte einzuordnen, beinhaltet aber auch kulturhistorische Aspekte. Der Fokus der untersuchten Austauschbeziehungen liegt auf der maritimen Route zwischen den Häfen des Roten Meeres und der Westküste Indiens. Vom ägyptischen Alexandria aus, wo die Waren aus dem gesamten Imperium Romanum verhandelt wurden, verschifften die Kaufleute ihre Exportprodukte über den Nil in das mittelägyptische Koptos. Von dort aus transportierten Lasttiere (Esel und Kamele) die Waren auf verschiedenen Routen an die Häfen des Roten Meeres (Myos Hormos und Berenike). Mit dem Monsun im Juli stachen die Schiffe in See und fuhren über offenes Gewässer zu den Handelsplätzen Indiens. Die Bedeutendsten von ihnen befanden sich an der Indusmündung, an der Mündung des Narmada und an der Malabarküste. Alternativ befuhren die Kaufleute die Route entlang der arabischen Küste, nach Indien. Wie die Europäer der neuzeitlichen europäischen Expansion, waren die Römer vor allem an Rohstoffen interessiert: Verschiedene Gewürze Asiens, Perlen und Edelsteine, sowie Baumwoll- und Seidenstoffe. Im Gegenzug brachten die Kaufleute aus dem Westen Rohstoffe und Fertigwaren auf den Subkontinent, vor allem: Glaswaren, bunte Kleidung und Stoffe, Metalle, Edelsteine, Pigmente und römische Münzen. In dieser Arbeit wird das Zahlenmaterial zum römischen Indienhandel, in Form Quantitativer Studien, nach Vorbild R. Duncan-Jones (The Economy of the Roman Empire. Quantitative Studies, Cambridge 1974), gesammelt und ausgewertet. Dieses Zahlenmaterial ermöglicht eine Einschätzung der ökonomischen Größenordnung des antiken Indienhandels. Im Anschluss daran werden die Handelswaren aus Indien, unter dem Aspekt des römischen Luxusdiskurses, untersucht. Dazu wurden die überlieferten Senatssitzungen, die sich mit dem Thema luxuria beschäftigen, thematisiert. Abschließend werden die indischen Handelsplätze anhand des Port of Trade Modells, wie es Karl Polanyi entwickelte, ausgewertet. Die dazu verwendeten Merkmale orientieren sich an Astrid Möllers Untersuchung zum ägyptischen Handelsplatz Naukratis.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Thema der vorliegenden Arbeit ist die Bestimmung von Basen von Räumen spezieller harmonischer 2-Koketten auf Bruhat-Tits-Gebäuden der PGL(3) über Funktionenkörpern. Hierzu wird der Raum der speziellen harmonischen 2-Koketten auf dem Bruhat-Tits-Gebäude der PGL(3) zunächst mit gewissen komplexen Linearkombinationen von 2-Simplizes des Quotientenkomplexes, sogenannten geschlossenen Flächen, identifiziert und anschließend durch verallgemeinerte Modulsymbole beschrieben. Die Darstellung der Gruppe der Modulsymbole durch Erzeuger und Relationen ermöglicht die Bestimmung einer endlichen Basis des Raums der speziellen harmonischen 2-Koketten. Die so gewonnenen Erkenntnisse können zur Untersuchung von Hecke-Operatoren auf speziellen harmonischen 2-Koketten genutzt werden. Mithilfe des hergeleiteten Isomorphismus zwischen dem Raum der speziellen harmonischen 2-Koketten und dem Raum der geschlossenen Flächen wird die Theorie der Hecke-Operatoren auf den Raum der geschlossenen Flächen übertragen. Dies ermöglicht die Berechnung von Abbildungsmatrizen der Hecke-Operatoren auf dem Raum der harmonischen 2-Koketten durch die Auswertung auf den geschlossenen Flächen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anliegen dieser Dissertation ist die Untersuchung des Einflusses eines Lesestrategietrainings auf die Entwicklung des Leseverständnisses in den Klassen 2 und 4. In einer experimentellen Studie mit Prä-Post-Test-Design wurde die Wirksamkeit eines 25 Sitzungen umfassenden Trainings der Strategien Vorhersagen, kleinschrittiges Wiederholen und Zusammenfassen den Effekten einer lesefernen Kontrollbedingung gegenübergestellt. Die Lesestrategien wurden peergestützt vermittelt, d. h. in Dyaden aus einem leseschwächeren und einem lesestärkeren Kind. In drei Teilstudien wurden Fragestellungen zur differenzierten Analyse der Trainingswirksamkeit untersucht: (1) Wird die Trainingswirksamkeit durch die Effizienz der Worterkennungsprozesse beeinflusst?, (2) Kann die Entwicklung der Leseflüssigkeit durch das Lesestrategietraining gefördert werden? und (3) Können leseschwache Kinder von der Zusammenarbeit mit lesestärkeren Tutor(inn)en hinsichtlich der Verbesserung ihres Leseverständnisses profitieren?. Die Ergebnisse dieser Dissertation sprechen dafür, dass das eingesetzte peergestützte Lesestrategietraining das Leseverständnis und die Leseflüssigkeit von Zweit- und Viertklässler(inne)n unter bestimmten Voraussetzungen positiv beeinflussen konnte. Die Leseleistungen vor dem Training, die Effizienz der Worterkennungsprozesse und die Rolle im dyadischen Lernen erwiesen sich als relevante Einflussfaktoren für die Wirksamkeit des Strategietrainings. Zweitklässler(innen), die aufgrund guter Prä-Test Leseleistungen die Tutor(inn)enrolle erhielten, konnten ihr Leseverständnis gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung signifikant steigern. Leseschwache Zweitklässler(innen) hingegen schienen nur bei (relativ) effizienten Worterkennungsprozessen die Lesestrategien zur Steigerung ihres globalen Leseverständnisses nutzen zu können, wobei sie keinen Zugewinn aus der dyadischen Zusammenarbeit ziehen konnten. Bei ineffizienten Worterkennungsprozessen hatte das Strategietraining negative Auswirkungen auf das allgemeine Leseverständnis. Anders in Klasse 4: Kinder, die aufgrund unterdurchschnittlicher Leseleistungen im Prä-Test als Tutand(inn)en am Training teilnahmen, verbesserten ihr Leseverständnis und konnten dabei von der Zusammenarbeit mit lesestarken Tutor(inn)en profitieren. Für die Tutor(inn)en in Klasse 4 zeigte sich kein Effekt des Strategietrainings gegenüber der Kontrollgruppe. In beiden Klassenstufen stellte sich im Verlauf des Strategietrainings eine schnellere Entwicklung der Leseflüssigkeit der schwachen Leser(innen) ein. Zusammengefasst erzielte das Training die größten Effekte für gute Leser(innen) in Klasse 2 und schwache Leser(innen) in Klasse 4 – beide Gruppen konnten ihr Leseverständnis praktisch bedeutsam gegenüber Kindern mit gleichen Leseleistungen in der Kontrollbedingung steigern.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diamant ist ein Material mit vielen außerordentlichen Eigenschaften, die ihn zu einem äußerst vielversprechenden Kandidaten für Anwendungen in Wissen-schaft und Technik machen. In den letzten Jahren wurde Diamant häufig als einzigartige Plattform für neue Anwendungen beispielsweise in der Quanteninformationstechnologie (QIT) oder in der Magnetometrie im Nanometermaßstab eingesetzt, wobei einer der wichtigsten lumineszierenden Gitterdefekte im Diamantgitter eingesetzt wird. Dabei handelt es sich um die sogenannten Stickstoff/Fehlenstellen-Farbzentren (NV-Zentren), die im sichtbaren Bereich mit einer absoluten Photostabilität bei Raumtemperatur emittieren. In dieser Arbeit wurden NV-Zentren in Diamantnanokristalliten und –nanosäulen untersucht, die während des Wachstumsprozesses erzeugt wurden. Einzelne Diamantnanokristallite und nanokristalline Diamantschichten (NCD), aus denen Nanosäulen geätzt wurden, wurden mithilfe der Hot Filament Chemical Vapour Deposition (HFCVD) abgeschieden. Zu Vergleichszwecken wurden auch ultrananokristalline Diamantschichten (UNCD) mittels Mikrowellen-CVD (MWCVD) hergestellt. Die Filme wurden sorgfältig in Bezug auf ihre Morphologie, kristallinen Eigenschaften und Zusammensetzung untersucht. Um die Möglichkeit einer Integration dieser Diamantschichten mit temperaturempfindlichen Materialien wie III/V-Halbleitern, Metallen mit niedrigem Schmelzpunkt oder Polymeren zu untersuchen, wurde der Einfluss der Substrattemperatur ermittelt. Eindimensionale NCD- und UNCD-Diamantnanostrukturen wurden mithilfe der Elektronenstrahllithographie (EBL) und reaktivem Ionenätzen in einem induktiv gekoppelten O2-Plasma (ICP-RIE) hergestellt. Zur Vorbereitung wurden zunächst die Ätzraten in Abhängigkeit von den vier wichtigsten Parametern ermittelt. Weitere Erkenntnisse über die Ätzmechanismen wurden durch Ätzexperiment mit unstrukturierten NCD- und UNCD-Schichten erhalten Mittels der EBL konnten mithilfe von Gold-Ätzmasken Nanosäulen mit Durchmessern von 50 nm bis zu 1 μm hergestellt werden.Eine optische Charakterisierung der NCD- und UNCD-Nanosäulen erfolgte mithilfe von Fluorenzenz-Mapping und Photomumineszenz-Spektroskopie. Diese Messungen ergaben, dass in beiden Arten von Säulen NV-Zentren vorhanden sind. Allerdings wurden nur in NCD-Säulen die gewünschten NV--Zentren gefunden, in UNCD-Säulen hingegen nur NV0-Zentren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Spezifität und Effizienz zellulärer Signalprozesse wird durch die intrazelluläre Kompartimentierung von Signalmolekülen erreicht. A-Kinase-Ankerproteine (AKAPs) bilden eine Familie aus Gerüstproteinen, die zeitliche und räumliche Lokalisation der cAMP-abhängigen Proteinkinase (PKA) übernehmen. Die direkte Interaktion wird dabei über die Dimerisierungs- und Dockingdomäne (DD-Domäne) der regulatorischen Untereinheiten von PKA vermittelt. Das charakteristische strukturelle Merkmal bei kanonischen AKAPs ist eine amphipathische Helix. Es existiert allerdings auch eine kleine Gruppe von nicht-kanonischen AKAPs, deren Bindung an die DD-Domäne nicht über eine amphipathische Helix vermittelt wird. In dieser Arbeit wurden die zwei potentiellen nicht-kanonischen AKAPs Neurochondrin (neurite-outgrowth promoting protein) und Rack1 (receptor of activated C-kinase 1) charakterisiert. Neurochondrin, dessen Expression mit dem Neuriten-Wachstum in jungen Neuronen korreliert ist und das vermutlich eine entscheidende Funktion bei der Langzeitpotenzierung im Hippocampus übernimmt, zeigt in SPR-Bindungsstudien eine hochaffine, nanomolare Interaktion mit der R-Untereinheit Typ IIalpha von PKA. Kompetitionsanalysen mit dem AKAP-Disruptor-Peptid Ht 31 und Untersuchungen mit der isolierten DD-Domäne von RIIalpha bestätigen eine spezifische Interaktion. Das nicht-kanonische RII-Bindemotiv von Neurochondrin ist aus zwei Domänen aufgebaut, die einen hohen alpha-helikalen Anteil besitzen, aber keine amphipathische Helix bilden. Peptidbasierte Interaktionsstudien der einzelnen Domänen zeigen dennoch ebenfalls nanomolare Affinitäten zu RIIalpha. Rack1 ist ein etabliertes Gerüstprotein mit einer propellerartigen beta-Faltblattstruktur, für das bereits über 100 verschiedene Interaktionspartner beschrieben werden konnten. Die Integration von Rack1 in unterschiedliche Signalprozesse ist äußerst vielfältig. Um dabei die Spezifität jeder einzelnen Interaktion zu gewährleisten, sind individuelle Bindungsstrategien nötig. Die niedrigaffine Interaktion zur RIbeta-Untereinheit von PKA wird daher über multiple Bindestellen vermittelt. Die DD-Domäne von RIbeta übernimmt dabei eine spezifische Funktion, wie unter anderem durch Kompetitionsanalysen mit dem RI-spezifischen AKAP-Disruptor-Peptid RIAD gezeigt werden konnte. Die einzigartige Struktur der DD-Domäne generiert zudem ein Bindemotiv für Rack1, das Ähnlichkeiten mit der „Rack1 interacting-Domäne“ (RAID) von PDE4D5 aufweist. Sowohl Neurochondrin als auch Rack1 besitzen essenzielle neuronale Funktionen. Daher erweitert die Identifizierung der beiden neuen nicht-kanonischen AKAPs nicht nur die strukturelle Diversität der AKAP-Familie, sondern trägt zudem zum Verständnis der neuronalen Signalintegration von PKA bei.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Armut/Reichtum, Arbeit, Glück, Tod, Gott und Mensch sowie Zeit – Dies alles sind Themen, die als existentiell bezeichnet werden können. Mit ihnen beschäftigt sich das alttestamentliche Buch Kohelet, das ca. zwischen 250 und 190 v. Chr. entstanden ist. Trotz des Alters dieses Buches behandelt Kohelet Fragen, die hoch aktuell sind: Gibt es einen Gott? Greift dieser ein? Ist Reichtum etwas Erstrebenswertes? Warum mühen wir uns so ab, wenn wir doch sowieso sterben und all das Erarbeitete hinterlassen müssen? Und haben wir überhaupt Entscheidungs- und Handlungsfreiheit? Ist nicht vielleicht sogar alles von Gott bestimmt? Die Fragen hängen eng mit dem eigenen Selbstbild zusammen. Besonders im Jugendalter befindet sich der Mensch auf der Suche nach einer Identität, nach Erkenntnissen und einer eigenen Weltanschauung. Kohelets Fragen gewinnen in dieser Zeit an Relevanz. Das alttestamentliche Buch kann insbesondere in dieser Lebensphase fruchtbar gemacht werden und anregend sein. Es kann Heranwachsende dazu auffordern, das bisherige Selbstbild und die eigene Weltanschauung zu hinterfragen. Aus diesen Überlegungen heraus ergibt sich das Buch Kohelet als wertvoller Gesprächspartner Jugendlicher. Daneben erscheint es auch naheliegend, Jugendliche mit Kohelet ins Gespräch zu bringen, weil der Adressat des Buches nach Schmitz der junge Erwachsene sei (vgl. Schmitz, 2004, S. 325). Obwohl eine Relevanz des Buches für Jugendliche auszumachen ist, kann das Buch Kohelet bisher als „bibeldidaktisches Stiefkind“ (G. Langenhorst, 2004, S. 317) angesehen werden. Vereinzelt finden sich Umsetzungsvorschläge des Buches im Unterricht. In Lehrplänen wird es jedoch kaum aufgegriffen. Hinzu kommt, dass sich kaum Ausführungen dazu finden, wie Jugendliche die Gedanken Kohelets überhaupt verstehen. Aus diesem Grund hat die vorliegende Arbeit das Ziel, dies in Erfahrung zu bringen. Um die Ausgangsfrage zu beantworten, wurde eine empirische Untersuchung der Rezeption durchgeführt. Dabei wurde das Zeitgedicht des Koheletbuches fokussiert, das das menschliche Leben als Ganzes thematisiert und implizit ein Menschenbild entfaltet. Über die Frage der Rezeption durch OberstufenschülerInnen hinaus, möchte die Arbeit auch Rückschlüsse auf eine mögliche Beschäftigung mit Kohelet im Religionsunterricht schließen. Zunächst wird das hier grundgelegte Verständnis von Textrezeption erläutert. Daraufhin wird der Blick auf die Texteinheit gerichtet. Diese wird eingehend exegetisch untersucht, wobei auch die verschiedenen Lesarten thematisiert werden. In einem nächsten Kapitel rücken die SchülerInnen als Adoleszente ins Zentrum, woraufhin die Untersuchung des Dialogs zwischen Text und SchülerInnen und somit der Rezeption vollzogen wird. Den Schluss bildet ein Fazit mit einem Ausblick.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die laserinduzierte Plasmaspektroskopie (LIPS) ist eine spektrochemische Elementanalyse zur Bestimmung der atomaren Zusammensetzung einer beliebigen Probe. Für die Analyse ist keine spezielle Probenpräparation nötig und kann unter atmosphärischen Bedingungen an Proben in jedem Aggregatzustand durchgeführt werden. Femtosekunden Laserpulse bieten die Vorteile einer präzisen Ablation mit geringem thermischen Schaden sowie einer hohen Reproduzierbarkeit. Damit ist fs-LIPS ein vielversprechendes Werkzeug für die Mikroanalyse technischer Proben, insbesondere zur Untersuchung ihres Ermüdungsverhaltens. Dabei ist interessant, wie sich die initiierten Mikrorisse innerhalb der materialspezifschen Struktur ausbreiten. In der vorliegenden Arbeit sollte daher ein schnelles und einfach zu handhabendes 3D-Rasterabbildungsverfahren zur Untersuchung der Rissausbreitung in TiAl, einer neuen Legierungsklasse, entwickelt werden. Dazu wurde fs-LIPS (30 fs, 785 nm) mit einem modifizierten Mikroskopaufbau (Objektiv: 50x/NA 0.5) kombiniert, welcher eine präzise, automatisierte Probenpositionierung ermöglicht. Spektrochemische Sensitivität und räumliches Auflösungsvermögen wurden in energieabhängigen Einzel- und Multipulsexperimenten untersucht. 10 Laserpulse pro Position mit einer Pulsenergie von je 100 nJ führten in TiAl zum bestmöglichen Kompromiss aus hohem S/N-Verhältnis von 10:1 und kleinen Lochstrukturen mit inneren Durchmessern von 1.4 µm. Die für das Verfahren entscheidende laterale Auflösung, dem minimalen Lochabstand bei konstantem LIPS-Signal, beträgt mit den obigen Parametern 2 µm und ist die bislang höchste bekannte Auflösung einer auf fs-LIPS basierenden Mikro-/Mapping-Analyse im Fernfeld. Fs-LIPS Scans von Teststrukturen sowie Mikrorissen in TiAl demonstrieren eine spektrochemische Sensitivität von 3 %. Scans in Tiefenrichtung erzielen mit denselben Parametern eine axiale Auflösung von 1 µm. Um die spektrochemische Sensitivität von fs-LIPS zu erhöhen und ein besseres Verständnis für die physikalischen Prozesse während der Laserablation zu erhalten, wurde in Pump-Probe-Experimenten untersucht, in wieweit fs-Doppelpulse den laserinduzierten Abtrag sowie die Plasmaemission beeinflussen. Dazu wurden in einem Mach-Zehnder-Interferometer Pulsabstände von 100 fs bis 2 ns realisiert, Gesamtenergie und Intensitätsverhältnis beider Pulse variiert sowie der Einfluss der Materialparameter untersucht. Sowohl das LIPS-Signal als auch die Lochstrukturen zeigen eine Abhängigkeit von der Verzögerungszeit. Diese wurden in vier verschiedene Regimes eingeteilt und den physikalischen Prozessen während der Laserablation zugeordnet: Die Thermalisierung des Elektronensystems für Pulsabstände unter 1 ps, Schmelzprozesse zwischen 1 und 10 ps, der Beginn des Abtrags nach mehreren 10 ps und die Expansion der Plasmawolke nach über 100 ps. Dabei wird das LIPS-Signal effizient verstärkt und bei 800 ps maximal. Die Lochdurchmesser ändern sich als Funktion des Pulsabstands wenig im Vergleich zur Tiefe. Die gesamte Abtragsrate variiert um maximal 50 %, während sich das LIPS-Signal vervielfacht: Für Ti und TiAl typischerweise um das Dreifache, für Al um das 10-fache. Die gemessenen Transienten zeigen eine hohe Reproduzierbarkeit, jedoch kaum eine Energie- bzw. materialspezifische Abhängigkeit. Mit diesen Ergebnissen wurde eine gezielte Optimierung der DP-LIPS-Parameter an Al durchgeführt: Bei einem Pulsabstand von 800 ps und einer Gesamtenergie von 65 nJ (vierfach über der Ablationsschwelle) wurde eine 40-fache Signalerhöhung bei geringerem Rauschen erzielt. Die Lochdurchmesser vergrößerten sich dabei um 44 % auf (650±150) nm, die Lochtiefe um das Doppelte auf (100±15) nm. Damit war es möglich, die spektrochemische Sensitivität von fs-LIPS zu erhöhen und gleichzeitig die hohe räumliche Auflösung aufrecht zu erhalten.