898 resultados para Extrusion dies
Resumo:
Kindliches Stottern ist eine Störung des Sprechablaufs mit unbekannter Ätiologie, die im Verlauf der Sprachentwicklung beginnt und bei ungefähr 5% aller Kinder auftritt. Im deutschsprachigen Raum gibt es zum jetzigen Zeitpunkt kein Therapieverfahren zur Behandlung kindlichen Stotterns, dessen Therapie-Effekte empirisch gesichert sind. Darüber hinaus wurden bisher kaum Forschungsprojekte zum Stottern im Kindesalter durchgeführt. Ziel dieses von Juni 2003 bis Mai 2005 an der Universitätsklinik Frankfurt durchgeführten Projektes war es, die Wirksamkeit eines bisher in Deutschland noch nicht eingeführten Therapieverfahrens zur Behandlung von stotternden Vorschulkindern, das sog. Lidcombe Programm (Onslow, Packman & Harrison, 2003) zu untersuchen. In dem vorliegenden Projekt wurde untersucht, inwieweit die sofortigen Veränderungen der Sprechflüssigkeit während der Behandlung mit dem Lidcombe Programm primär auf diese Methode oder auf den Einfluss von Spontanremission zurückzuführen ist. Die übergeordnete Zielsetzung der Studie war die Schaffung einer Datengrundlage über die Effektivität des Lidcombe-Programms bei der Behandlung deutschsprachiger Vorschulkinder. Es wurden insgesamt 46 Vorschulkinder, welche nachfolgende Kriterien erfüllten, untersucht: (1) Alter zwischen 3,0 und 5,11 Jahren; (2) Deutsch als Muttersprache sowohl für das Kind als auch für die Eltern; (3) Beginn der Stottersymptomatik vor mindestens sechs Monaten; (4) Stottersymptomatik von mindestens 3% gestotterter Silben während einer Unterhaltung mit dem Untersucher und/oder den Eltern in der Klinik im Rahmen der Erstdiagnostik; (5) keine neurologischen Erkrankungen oder regelmäßige Einnahme von Medikamenten. Die Teilnehmer wurden randomisiert in zwei Gruppen eingeteilt. Die Kinder der Gruppe 1 begannen sofort mit der Behandlung mit dem Lidcombe-Programm. Die Kinder der Gruppe 2 warteten sechzehn Wochen und begannen dann mit der Behandlung. Für jedes Kind wurde der mittlere Prozentsatz gestotterter Silben zu Beginn jeder Behandlungsstunde im Gespräch mit der Therapeutin ermittelt, und darüber hinaus vor Beginn der Behandlung und nach sechzehn Therapiestunden auf Grund von jeweils vier zu Hause und in der Klinik aufgenommenen Spontansprachproben. Die Ergebnisse der vorliegenden Studie haben gezeigt, dass das Lidcombe-Programm auch für deutschsprachige Kinder ein effektives Therapiekonzept zur Reduktion einer Stottersymptomatik darstellt. Alle Vorschulkinder, die mit dem Lidcombe-Programm behandelt wurden, zeigten eine Abnahme des Prozentsatzes gestotterter Silben. Die Daten belegen ebenfalls, dass der Kurzzeit-Effekt des Lidcombe-Programms auf frühkindliches Stotterns den einer spontanen Remission überwiegt. Die behandelten Kinder zeigten eine signifikant höhere Abnahme ihrer Stottersymptomatik (M = 6,9%) als dies in der unbehandelten Kontrollgruppe (M = 2,5%) beobachtet werden konnte. Zwar sank auch in der Kontrollgruppe der Prozentsatz gestotterter Silben während des Untersuchungszeitraumes bei einigen Kindern, im Vergleich verringerte sich jedoch der Prozentsatz gestotterter Silben in der Therapiegruppe um mehr als das Doppelte. Diese ersten Daten weisen darauf hin, dass das Lidcombe-Programm für die deutschsprachige Therapie des kindlichen Stotterns eine ausgezeichnete Bereicherung darstellt und zu einer sinnvollen Ergänzung der therapeutischen Handlungskompetenz im Bereich der Redeflussstörungen führt.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.
Resumo:
Die medienrechtliche Diskussion in Deutschland, aber auch in anderen Mitgliedstaaten, hat sich bisher (zu) wenig mit den Maßgaben des europäischen Medienrechts befasst und wurde (zu) häufig von aktuellen Themen auf nationaler Ebene überlagert. Dies wird dem großen Einfluss, den das Gemeinschaftsrecht auf die Ausgestaltung der nationalen Medienordnungen ausübt und künftig in (wohl) zunehmendem Maß ausüben wird, nicht gerecht. In den letzten 25 Jahren hat sich ein eigenständiges "europäisches Medienrecht" herausgebildet, dessen Konturen in diesem Beitrag beschrieben werden. Nach einer kurzen Einführung (I.) werden ausgehend von den Grundrechten des Europäischen Verfassungsvertrags und Grundfreiheiten des EGV (II.) die wichtigsten Regelungsbereiche des europäischen Medienrechts skizziert und deren Entwicklungstendenzen angedeutet (III.). Ein Ausblick schließt den Beitrag ab (IV.).
Resumo:
Am Beispiel eines umfangreichen Reformprojekts, nämlich der Qualifizierungsmaßnahme "Führungskräfte als Personalentwickler", wurde die Problematik von Veränderungsprozessen in der Großorganisation Polizei dargestellt. Die zweijährige Qualifizierungsmaßnahme hatte als direktes Ziel, Führungskräfte der niedersächsischen Landespolizei zu Personalentwicklern zu qualifizieren. Auf diesem Wege sollte im Sinne eines Multiplikatoreffekts das indirekt anvisierte Ziel, die Umstellung der Organisation der Polizei von einer hierarchisch-bürokratisch geführten zu einer kooperativen mitarbeiter-orientierten Organisation vorangetrieben werden. Untersucht wurden in dieser Arbeit die Auswirkungen der Qualifizierungsmaßnahme auf die Organisation Polizei Niedersachsen und die beteiligten Führungskräfte. Die wesentlichen Befunde der drei zentralen Untersuchungsebenen, 1. Lernteil: die Wirkungen der Inhalte der Seminarbausteine auf die Teilnehmer, 2. Praxisteil: die Einführung von personalentwicklerischen Innovationen in die Arbeitsbereiche der Teilnehmer durch Projektarbeit, 3. Organisationsteil: die Implementation innovativer Personalentwicklung in die Gesamtorganisation, belegen, dass die Polizei ein komplexer Organismus ist, der nur begrenzt linearen Steuerungsmechanismen gehorcht. Die reibungsvolle Gleichzeitigkeit von Alt und Neu schafft Konflikte und Widerstände. Reformprozesse konfrontieren die Alltagsorganisation Polizei in besonderem Maße mit widersprüchlichen Handlungslogiken, was in der Reaktion dazu führt, die Widersprüche weitestgehend zu vermeiden oder zurückzuweisen. Da diese auftretenden Widersprüche nicht reflektiert und damit nicht thematisiert werden, kommt es nicht zu weiter führenden Aushandlungsprozessen auf der Ebene der Gesamtorganisation. So bleibt als Ergebnis festzuhalten: Der individuelle Lernwert der an der Qualifizierungsmaßnahme beteiligten Führungskräfte kann durchgängig als "hoch" bezeichnet werden. Das intendierte Ziel eines breit angelegten Strategiewandels durch Personalentwicklung wurde dagegen verfehlt, da es an begleitenden Unterstützungs- und Entwicklungsmaßnahmen in der Organisation mangelte. Somit stützt und belegt diese Dissertation das Verständnis von prozessualen Dynamiken, die das Geschehen in der Organisation und damit auch das Schicksal von Veränderungsprozessen bestimmen. Reformprozesse sind niemals allein mit der mechanistischen Gestaltung von Organisationszielen, also der Durchführung von Programmen, sondern sowohl mit der Dynamik interner Machtprozesse als auch mit der Art und Weise des Umgangs mit widersprüchlichen Handlungslogiken konfrontiert. Werden letztere nicht zur Kenntnis genommen und bearbeitet bzw. mit traditionellen Lösungsstrategien angegangen, dann bleiben Innovationen suboptimal – wie dies in der untersuchten Maßnahme der Fall ist.
Resumo:
Allgegenwärtige Datenverarbeitung wird die Verwirklichungsbedingungen für das Grundrecht auf informationelle Selbstbestimmung so verändern, dass dessen Schutzprogramm, wie es im geltenden Datenschutzrecht umgesetzt ist, nicht mehr greifen wird. Daher ist es dringend notwendig, dieses Schutzprogramm so fortzuentwickeln, dass es den neuen Risiken gerecht wird. Dies darf jedoch nicht isoliert in eigenen gesetzlichen Vorschriften erfolgen, sondern muss sich einbetten in eine systematische Modernisierung des gesamten Datenschutzrechts. Der Beitrag benennt diese Aufgabe (I.), stellt die neuen Herausforderungen dar (II.) und zeigt, wie eine adäquate Fortentwicklung des Datenschutzrechts möglich wäre (III.).
Resumo:
Der Beitrag beschäftigt sich mit technischen und rechtlichen Aspekten der Nutzung von Softwareagenten-Technologie im elektronischen Vergabeverfahren. Vermittelt wird ein Überblick über die Bedeutung der elektronischen Vergabe und die bestehenden rechtlichen Rahmenbedingungen (I.). Wesentliche Charakteristika und Fähigkeiten von Softwareagenten werden beschrieben. Aufgezeigt wird, dass sich das elektronische Vergabeverfahren in besonderer Weise für den Einsatz von Softwareagenten-Technologie eignet. Dies wird anhand eines Praxismodells für die agentenbasierte elektronische Vergabe illustriert (II.). Dargestellt wird, auf welche Weise die bestehenden vergaberechtlichen Anforderungen bei der Gestaltung agentenbasierter Vergabesysteme angemessen berücksichtigt werden können (III.). Ein Fazit und Ausblick schließt den Beitrag ab (IV.).
Resumo:
Angepasste Kommunikationssysteme für den effizienten Einsatz in dezentralen elektrischen Versorgungsstrukturen - In öffentlichen Elektrizitätsnetzen wird der Informationsaustausch seit längerem durch historisch gewachsene und angepasste Systeme erfolgreich bewerkstelligt. Basierend auf einem weiten Erfahrungsspektrum und einer gut ausgebauten Kommunikationsinfrastruktur stellt die informationstechnische Anbindung eines Teilnehmers im öffentlichen Versorgungsnetz primär kein Hemmnis dar. Anders gestaltet sich dagegen die Situation in dezentralen Versorgungsstrukturen. Da die Elektrifizierung von dezentralen Versorgungsgebieten, mittels der Vernetzung vieler verteilter Erzeugungsanlagen und des Aufbaus von nicht an das öffentliche Elektrizitätsnetz angeschlossenen Verteilnetzen (Minigrids), erst in den letzten Jahren an Popularität gewonnen hat, sind nur wenige Projekte bis dato abgeschlossen. Für die informationstechnische Anbindung von Teilnehmern in diesen Strukturen bedeutet dies, dass nur in einem sehr begrenzten Umfang auf Erfahrungswerte bei der Systemauswahl zurückgegriffen werden kann. Im Rahmen der Dissertation ist deshalb ein Entscheidungsfindungsprozess (Leitfaden für die Systemauswahl) entwickelt worden, der neben einem direkten Vergleich von Kommunikationssystemen basierend auf abgeleiteten Bewertungskriterien und Typen, der Reduktion des Vergleichs auf zwei Systemwerte (relativer Erwartungsnutzenzuwachs und Gesamtkostenzuwachs), die Wahl eines geeigneten Kommunikationssystems für die Applikation in dezentralen elektrischen Versorgungsstrukturen ermöglicht. In Anlehnung an die klassische Entscheidungstheorie werden mit der Berechnung eines Erwartungsnutzens je Kommunikationssystems, aus der Gesamtsumme der Einzelprodukte der Nutzwerte und der Gewichtungsfaktor je System, sowohl die technischen Parameter und applikationsspezifischen Aspekte, als auch die subjektiven Bewertungen zu einem Wert vereint. Mit der Ermittlung der jährlich erforderlichen Gesamtaufwendungen für ein Kommunikationssystem bzw. für die anvisierten Kommunikationsaufgaben, in Abhängigkeit der Applikation wird neben dem ermittelten Erwartungsnutzen des Systems, ein weiterer Entscheidungsparameter für die Systemauswahl bereitgestellt. Die anschließende Wahl geeigneter Bezugsgrößen erlaubt die Entscheidungsfindung bzgl. der zur Auswahl stehenden Systeme auf einen Vergleich mit einem Bezugssystem zurückzuführen. Hierbei sind nicht die absoluten Differenzen des Erwartungsnutzen bzw. des jährlichen Gesamtaufwandes von Interesse, sondern vielmehr wie sich das entsprechende System gegenüber dem Normal (Bezugssystem) darstellt. Das heißt, der relative Zuwachs des Erwartungsnutzen bzw. der Gesamtkosten eines jeden Systems ist die entscheidende Kenngröße für die Systemauswahl. Mit dem Eintrag der berechneten relativen Erwartungsnutzen- und Gesamtkostenzuwächse in eine neu entwickelte 4-Quadranten-Matrix kann unter Berücksichtigung der Lage der korrespondierenden Wertepaare eine einfache (grafische) Entscheidung bzgl. der Wahl des für die Applikation optimalsten Kommunikationssystems erfolgen. Eine exemplarisch durchgeführte Systemauswahl, basierend auf den Analyseergebnissen von Kommunikationssystemen für den Einsatz in dezentralen elektrischen Versorgungsstrukturen, veranschaulicht und verifiziert die Handhabung des entwickelten Konzeptes. Die abschließende Realisierung, Modifikation und Test des zuvor ausgewählten Distribution Line Carrier Systems unterstreicht des Weiteren die Effizienz des entwickelten Entscheidungsfindungsprozesses. Dem Entscheidungsträger für die Systemauswahl wird insgesamt ein Werkzeug zur Verfügung gestellt, das eine einfache und praktikable Entscheidungsfindung erlaubt. Mit dem entwickelten Konzept ist erstmals eine ganzheitliche Betrachtung unter Berücksichtigung sowohl der technischen und applikationsspezifischen, als auch der ökonomischen Aspekte und Randbedingungen möglich, wobei das Entscheidungsfindungskonzept nicht nur auf die Systemfindung für dezentrale elektrische Energieversorgungsstrukturen begrenzt ist, sondern auch bei entsprechender Modifikation der Anforderungen, Systemkenngrößen etc. auf andere Applikationsanwendungen übertragen werden.
Resumo:
Wie lässt sich Mediensozialisation theoretisch begründen und empirisch untersuchen, wenn Sozialisationstheorie von Prägemodellen der Persönlichkeit abrückt und Persönlichkeitsentwicklung in einer zwar von der Elterngeneration und der Gesellschaft vorgegebenen Lebenswelt in den Mittelpunkt stellt, dabei die subjektive Aneignung, ja Herstellung dieser Lebenswelt, besonders betont? So gesehen sind Medien Teil der gesellschaftlichen Umwelt, die sich Rezipienten in Prozessen der Bedeutungskonstitution aneignen und herstellen. Der aktuelle kulturelle und gesellschaftliche Veränderungsprozess beeinflusst diese Aneignungsprozesse über neue mediale Präsentationsformen, die von Einzelmedien zu multimedialen und multimodalen Angebotssystemen führen. Gleichzeitig entwickelt sich eine dominierende Erlebnisweise, bei der die Menschen im Mittelpunkt ihrer eigenen subjektiven, flexiblen, selbst zusammengesetzten Lebenswelt stehen, eine Lebenswelt, in der multimediale und multimodale Angebotssysteme in die Entwicklung der Subjektivität eingehen. Dies geschieht im Rahmen von Massenkommunikation als Prozess diskursiver Praktiken, die den Forschungsgegenstand definieren.
Resumo:
Die Endozytose und die anschließende Verwertung der aufgenommenen Substanzen ist Gegenstand zahlreicher Untersuchungen. Dabei wird ein besonderes Augenmerk auf die Proteine gelegt, die an diesen Vorgängen beteiligt sind. In der hier vorliegenden Arbeit wird der Lipid-Status der Zelle und Enzyme des Lipid-Stoffwechsels berücksichtigt. Das Ausschalten einer Long Chain-Fatty Acyl CoA Synthetase 1 (LC-FACS), fcsB, in Dictyostelium discoideum hat eine Veränderung der Menge an neutralen Lipiden zur Folge. In diesen LC-FACS2 „Knock-Out“-Zellen wird ein Zusammenhang zwischen neutralen Lipiden und der Phagozytose von Hefen und Bakterien detektiert. Ein Einfluss auf den endozytotischen Transit kann in diesen Zellen nur induziert werden, wenn man zusätzlich den Triglycerid-Hydrolyse-Inhibitor LSD1 in den Zellen exprimiert. Mit Hilfe der Daten wird ein Modell erstellt, indem die Reduktion der Menge an neutralen Lipiden nicht direkt für diesen Phänotyp verantwortlich ist. Es ist vielmehr das Energie-Niveau der Zellen, das die Phagozytoserate beeinflusst. Möglich macht dies ein Pool aus Fettsäuren im Zytoplasma. Dieser besteht aus unaktivierten Fettsäuren und Acyl-CoAs. Auf ihn greifen Kompartimente wie Lipidtropfen, Mitochondrien und Peroxisomen zu, wenn Fettsäuren verstoffwechselt werden sollen. In LC-FACS2 „Knock-Out“-Zellen, wird das Gleichgewicht im Pool in Richtung der unaktivierten Fettsäuren verschoben. Anhand der Größe dieses Pools kann die Zelle ihren Energiestatus messen. Ein höherer Energie-Status führt dann zu einer Reduktion der Phagozytoserate. Vacuolin B Null Zellen (vacB-) zeigen eine extreme Verzögerung im endozytotischen Transit. Schaltet man in diesen Zellen die LC-FACS1 aus (vacB-/fcsA-), so reduziert man ebenfalls die Menge an Triglyceriden. Dies ist darauf zurückzuführen, dass der Acyl-CoA Anteil des Fettsäure-Pools reduziert ist. Diese Reduktion resultiert hier in einer Beschleunigung des endozytotischen Transits. Die Exozytose von vacB--Zellen und vacB-/ fcsA--Zellen unterscheidet sich nicht. Daher wird die Ursache für diese Beschleunigung in veränderten Fusions- bzw. Fissionseigenschaften der Endosomen vermutet. Somit führt das Ausschalten von LC-FACS-Proteinen in Dictyostelium zu einer veränderten Zusammensetzung des Fettsäure-Pools. Dies hat im Fall der LC-FACS1 Modifikationen der Membran-Dynamik und im Fall der LC-FACS2 Änderungen des Energie-Spiegels zur Folge.
Resumo:
Mit einer Virtuellen Organisation können Flexibilität, Schnelligkeit, Innovationsfähigkeit, Internationalität, Qualität und Effizienz erreicht werden. All dies sind Anforderungen, die Bildungsanbieter heutzutage zwingend erfüllen müssen, um im Wettbewerb bestehen zu können. Die Arbeit geht daher der Frage nach, ob die Virtuelle Organisation eine sinnvolle Organisationsvariante für Bildungsanbieter sein kann bzw. welches Ausmaß an Virtualität sinnvoll sein kann: Der Bildungsanbieter als Netzwerk aus einer koordinierenden Programmzentrale und spezialisierten Anbietern von Lehrleistungen, die situativ in den Bildungsbetrieb einbezogen werden? Im Fokus der Untersuchung steht die Managementausbildung, die angeboten wird von Institutionen des tertiären Bildungssektors und Anbietern berufsbezogener Weiterbildung. Zur Beantwortung der Kernfrage werden zunächst Kriterien erarbeitet, die beschreiben, wann eine Virtuelle Organisation generell Sinn macht. Diese beziehen sich in erster Linie auf die Eigenschaften des von der Organisation hergestellten Produktes. Daher wird im nächsten Schritt eine Produktstruktur für die Managementausbildung hergeleitet, die später mit den Eignungskriterien für die Virtuelle Organisation abgeglichen werden kann. Die Soll-Produktstruktur für die Managementausbildung wird basierend auf dem typischen Karriereverlauf einer Fach- und Führungskraft entwickelt. Ergebnis ist eine Differenzierung des Gesamtkonstrukts Managementausbildung in die Produkte Grundlagenstudium, Vertiefungsstudium und Weiterbildung. Die Eigenschaften der Managementausbildungsprodukte werden untersucht und den Eignungskriterien der Virtuellen Organisation gegenüber gestellt, um so zu einer Aussage über die Virtualisierungsfähigkeit der einzelnen Produkte zu gelangen. Abschließend wird für jedes Produkt der Managementausbildung eine Virtualisierungsvision entwickelt und die Implikationen für die verschiedenen Anbieter von Managementausbildung werden aufgezeigt.
Resumo:
Soil organic matter (SOM) vitally impacts all soil functions and plays a key role in the global carbon (C) cycle. More than 70% of the terrestric C stocks that participate in the active C cycle are stored in the soil. Therefore, quantitative knowledge of the rates of C incorporation into SOM fractions of different residence time is crucial to understand and predict the sequestration and stabilization of soil organic carbon (SOC). Consequently, there is a need of fractionation procedures that are capable of isolating functionally SOM fractions, i.e. fractions that are defined by their stability. The literature generally refers to three main mechanisms of SOM stabilization: protection of SOM from decomposition by (i) its structural composition, i.e. recalcitrance, (ii) spatial inaccessibility and/or (iii) interaction with soil minerals and metal ions. One of the difficulties in developing fractionation procedures for the isolation of functional SOM fractions is the marked heterogeneity of the soil environment with its various stabilization mechanisms – often several mechanisms operating simultaneously – in soils and soil horizons of different texture and mineralogy. The overall objective of the present thesis was to evaluate present fractionation techniques and to get a better understanding of the factors of SOM sequestration and stabilization. The first part of this study is attended to the structural composition of SOM. Using 13C cross-polarization magic-angle spinning (CPMAS) nuclear magnetic resonance (NMR) spectroscopy, (i) the effect of land use on SOM composition was investigated and (ii) examined whether SOM composition contributes to the different stability of SOM in density and aggregate fractions. The second part of the present work deals with the mineral-associated SOM fraction. The aim was (iii) to evaluate the suitability of chemical fractionation procedures used in the literature for the isolation of stable SOM pools (stepwise hydrolysis, treatments using oxidizing agents like Na2S2O8, H2O2, and NaOCl as well as demineralization of the residue obtained by the NaOCl treatment using HF (NaOCl+HF)) by pool sizes, 13C and 14C data. Further, (iv) the isolated SOM fractions were compared to the inert organic matter (IOM) pool obtained for the investigated soils using the Rothamsted Carbon Model and isotope data in order to see whether the tested chemical fractionation methods produce SOM fractions capable to represent this pool. Besides chemical fractionation, (v) the suitability of thermal oxidation at different temperatures for obtaining stable SOC pools was evaluated. Finally, (vi) the short-term aggregate dynamics and the factors that impact macroaggregate formation and C stabilization were investigated by means of an incubation study using treatments with and without application of 15N labeled maize straw of different degradability (leaves and coarse roots). All treatments were conducted with and without the addition of fungicide. Two study sites with different soil properties and land managements were chosen for these investigations. The first one, located at Rotthalmünster, is a Stagnic Luvisol (silty loam) under different land use regimes. The Ah horizons of a spruce forest and continuous grassland and the Ap and E horizons of two plots with arable crops (continuous maize and wheat cropping) were examined. The soil of the second study site, located at Halle, is a Haplic Phaeozem (loamy sand) where the Ap horizons of two plots with arable crops (continuous maize and rye cropping) were investigated. Both study sites had a C3-/C4-vegetational change on the maize plot for the purpose of tracing the incorporation of the younger, maize-derived C into different SOM fractions and the calculation of apparent C turnover times of these. The Halle site is located near a train station and industrial areas, which caused a contamination with high amounts of fossil C. The investigation of aggregate and density fractions by 13C CPMAS NMR spectroscopy revealed that density fractionation isolated SOM fractions of different composition. The consumption of a considerable part (10–20%) of the easily available O-alkyl-C and the selective preservation of the more recalcitrant alkyl-C when passing from litter to the different particulate organic matter (POM) fractions suggest that density fractionation was able to isolate SOM fractions with different degrees of decomposition. The spectra of the aggregate fractions resembled those of the mineral-associated SOM fraction obtained by density fractionation and no considerable differences were observed between aggregate size classes. Comparison of plant litter, density and aggregate size fractions from soil under different land use showed that the type of land use markedly influenced the composition of SOM. While SOM of the acid forest soil was characterized by a large content (> 50%) of POM, which contained high amounts of spruce-litter derived alkyl-C, the organic matter in the biologically more active grassland and arable soils was dominated by mineral-associated SOM (> 95%). This SOM fraction comprised greater proportions of aryl- and carbonyl-C and is considered to contain a higher amount of microbially-derived organic substances. Land use can alter both, structure and stability of SOM fractions. All applied chemical treatments induced considerable SOC losses (> 70–95% of mineral-associated SOM) in the investigated soils. The proportion of residual C after chemical fractionation was largest in the arable Ap and E horizons and increased with decreasing C content in the initial SOC after stepwise hydrolysis as well as after the oxidative treatments with H2O2 and Na2S2O8. This can be expected for a functional stable pool of SOM, because it is assumed that the more easily available part of SOC is consumed first if C inputs decrease. All chemical treatments led to a preferential loss of the younger, maize-derived SOC, but this was most pronounced after the treatments with Na2S2O8 and H2O2. After all chemical fractionations, the mean 14C ages of SOC were higher than in the mineral-associated SOM fraction for both study sites and increased in the order: NaOCl < NaOCl+HF ≤ stepwise hydrolysis << H2O2 ≈ Na2S2O8. The results suggest that all treatments were capable of isolating a more stable SOM fraction, but the treatments with H2O2 and Na2S2O8 were the most efficient ones. However, none of the chemical fractionation methods was able to fit the IOM pool calculated using the Rothamsted Carbon Model and isotope data. In the evaluation of thermal oxidation for obtaining stable C fractions, SOC losses increased with temperature from 24–48% (200°C) to 100% (500°C). In the Halle maize Ap horizon, losses of the young, maize-derived C were considerably higher than losses of the older C3-derived C, leading to an increase in the apparent C turnover time from 220 years in mineral-associated SOC to 1158 years after thermal oxidation at 300°C. Most likely, the preferential loss of maize-derived C in the Halle soil was caused by the presence of the high amounts of fossil C mentioned above, which make up a relatively large thermally stable C3-C pool in this soil. This agrees with lower overall SOC losses for the Halle Ap horizon compared to the Rotthalmünster Ap horizon. In the Rotthalmünster soil only slightly more maize-derived than C3-derived SOC was removed by thermal oxidation. Apparent C turnover times increased slightly from 58 years in mineral-associated SOC to 77 years after thermal oxidation at 300°C in the Rotthalmünster Ap and from 151 to 247 years in the Rotthalmünster E horizon. This led to the conclusion that thermal oxidation of SOM was not capable of isolating SOM fractions of considerably higher stability. The incubation experiment showed that macroaggregates develop rapidly after the addition of easily available plant residues. Within the first four weeks of incubation, the maximum aggregation was reached in all treatments without addition of fungicide. The formation of water-stable macroaggregates was related to the size of the microbial biomass pool and its activity. Furthermore, fungi were found to be crucial for the development of soil macroaggregates as the formation of water-stable macroaggregates was significantly delayed in the fungicide treated soils. The C concentration in the obtained aggregate fractions decreased with decreasing aggregate size class, which is in line with the aggregate hierarchy postulated by several authors for soils with SOM as the major binding agent. Macroaggregation involved incorporation of large amounts maize-derived organic matter, but macroaggregates did not play the most important role in the stabilization of maize-derived SOM, because of their relatively low amount (less than 10% of the soil mass). Furthermore, the maize-derived organic matter was quickly incorporated into all aggregate size classes. The microaggregate fraction stored the largest quantities of maize-derived C and N – up to 70% of the residual maize-C and -N were stored in this fraction.
Resumo:
Im Mittelpunkt der Dissertation stehen das Schutzgut ‚Landschaft’ sowie ‚Prognosemethoden in der Umweltprüfung’. Mit beiden Themenbereichen verbinden sich bereits heute ungelöste methodische Probleme, die mit der Umsetzung der Richtlinie zur Strategischen Umweltprüfung (SUP) zusätzlich komplexer und deren Lösung mithin anspruchsvoller werden. Dies hängt einerseits damit zusammen, dass eine gesetzeskonforme Gleichbehandlung aller Schutzgüter zunehmend eingefordert wird und gerade das Schutzgut ‚Landschaft’ in einer SUP methodisch besondere Aufmerksamkeit verlangt. Zum anderen führt die gängige planungsmethodische Diskussion allein nicht zu geeigneten Antworten auf o.g. Fragen, und es bedarf der Prüfung verschiedener Methodenbausteine, auch aus anderen Wissensgebieten, um – über ein eindimensionales Landschaftsverständnis einerseits und die bisher bekannten linearen Wirkungsprognosen andererseits hinaus gehend – mehrfach verknüpfte Prognoseschritte zur Anwendung in der SUP zu entwickeln, in denen das Schutzgut ‚Landschaft’ modellhaft für Bewertungsschritte nachvollziehbar abgebildet wird. Hierbei müssen entscheidungsrelevante Prognosezeiträume ebenso beachtet werden, wie in diesen Zeiträumen möglicherweise auftretende sekundäre, kumulative, synergetische, positive und negative Auswirkungen der zu beurteilenden Planung. Dieser Ziel- und Aufgabenstellung entsprechend erfolgt die theoretische Herangehensweise der Arbeit von zwei Seiten: 1. Die Funktionen und Stellung von Prognosen innerhalb der SUP wird erläutert (Kap. 2), und es wird der Frage nachgegangen, welche Anforderungen an Prognosemethoden zu stellen sind (Kap. 2.4) und welche Prognosemethoden in der SUP Verwendung finden bzw. finden können (Kap. 3). Der Schwerpunkt wird dabei auf die Anwendung der Szenariotechnik gelegt. 2. Es wird dargestellt wie Landschaft für Aufgaben der Landschaftsplanung und Umweltprüfung bisher üblicherweise erfasst und analysiert wird, um in Prognoseschritten handhabbar behandelt zu werden (Kap. 4). Beide Zugänge werden sodann zusammengeführt (Kap. 5), um am Beispiel einer Hochwasserschutzkonzeption im Rahmen der SUP Landschaftliche Prognosen zu erarbeiten. Die Prognose setzt methodisch mit der Beschreibung des zu verwendenden Landschaftsmodells und der Klärung des Modellzwecks ein. Bezugsbasis ist die Beschreibung des Charakters einzelner logisch hergeleiteter Landschaftseinheiten bzw. Landschaftsräume, die typisiert werden. Die Prognose selber unterscheidet zwischen der Abschätzung zu erwartender Landschaftsveränderungen im Sinne der ‚Status-quo-Prognose’ (einschließlich der Entwicklung von drei Szenarien möglicher Zukunftslandschaften bis 2030) und der Wirkungsabschätzungen verschiedener Maßnahmen bzw. Planungsalternativen und zwar zunächst raumunabhängig, und dann raumkonkret. Besondere Bedeutung bei den Wirkungsabschätzungen erhält die klare Trennung von Sach- und Wertebene, eine angemessene Visualisierung und die Dokumentation von Informationslücken und Unsicherheiten bei der Prognose. Diskutiert wird u.a. (Kap. 6) · die Bildung und Abgrenzung landschaftlicher Einheiten und Typen in Bezug zu der Aufgabe, landschaftliche Eigenart zu definieren und planerisch handhabbar und anwendbar zu bestimmen, · die Bedeutung angemessener Visualisierung zur Unterstützung von Beteiligungsverfahren und · die Bestimmung des so genannten ‚Raumwiderstandes’. Beigefügt sind zwei Karten des gesamten Bearbeitungsgebietes: Karte 1 „Landschaftstypen“, Karte 2 „Maßnahmentypen des Hochwasserschutzes mit möglichen Synergieeffekten für die Landschaft“.