988 resultados para Nicht-Sehen
Resumo:
Mit dem Ziel, die Bildung und den Verbrauch von mikrobiellen Residuen zu ermitteln, wurden zwei Inkubationsversuche durchgeführt. Die Versuchsdauer betrug jeweils 67 Tage, wobei an den Tagen 5, 12, 33, 38, 45 und 67 Proben entnommen und auf Ct, Cmik, CO2 sowie die δ13C-Werte, Nt, Nmin und Ergosterol untersucht wurden. In Versuch 1 wurden als leicht umsetzbare Kohlenstoffquelle 3 mg C4-Kohlenstoff g-1Boden in Form von Rohrzucker bzw. Maiscellulose und als N-Ausgleich 200 µg NH4NO3-N g-1Boden hinzugegeben. Der verwendete Boden war ein Lößboden. In Versuch 2 wurden 3 mg C4-Kohlenstoff g-1Boden in Form von Rohrzucker und 100 µg NH4NO3-N g-1Boden in den Boden eingearbeitet. Als Substrat wurde hier ein gebrannter Lößboden verwendet. Bei beiden Versuchen erfolgte an Tag 33 nochmals eine Zugabe von 3 mg C3-Kohlenstoff g-1Boden in Form von Cellulose. Die Zugabe des C4-Kohlenstoffs führte in beiden Versuchen zu einer Zunahme des C4-Anteils in der mikrobiellen Biomasse. Insgesamt wurden im ersten Versuch ca. 78 % des C4-Kohlenstoffs und im zweiten Versuch ca. 64 % mineralisiert. In Versuch 1 wurde bei der Rohrzuckervariante der größte Teil an C4-C innerhalb der ersten 5 Tage mineralisiert, in der Cellulosevariante konnte dagegen eine geringere, aber länger anhaltende Mineralisation bis Tag 33 beobachtet werden. Dies sowie die Entwicklung des C4-C der mikrobiellen Biomasse deuten darauf hin, dass die Cellulose erst zu diesem Zeitpunkt vollständig umgesetzt war, der Rohrzucker dagegen aber schon nach 5 Inkubationstagen. Der Anteil an C4-C in den mikrobiellen Residuen lag an Tag 33 bei 28 % (Cellulosevariante) bzw. 22 % (Rohrzuckervariante) des zugegebenen C4-Kohlenstoffs. Dagegen lag im zweiten Versuch der Anteil an C4-Kohlenstoff in den mikrobiellen Residuen bei 40 %. In Versuch 1 führte die Zugabe der C3-Cellulose an Tag 33 nicht zu einem Verbrauch von mikrobiellen Residuen, im Versuch 2 hingegen zu einer signifikanten Abnahme. Der zugegebene Stickstoff wurde in beiden Versuchen durch die Zugabe des Rohrzuckers in hohen Anteilen immobilisiert, aber nur in geringem Umfang in die mikrobielle Biomasse inkorporiert. An Tag 33 lag der Anteil Stickstoff in den mikrobiellen Residuen bei 52 % (Versuch 1) bzw. 84 % (Versuch 2) des zugegebenen Stickstoffs. In Versuch 1 setzte nach 33 Tagen eine Remineralisation des immobilisierten Stickstoffs ein, unabhängig von der Zugabe der C3-Cellulose. In Versuch 2 wurde der immobilisierte Stickstoff zu keinem Zeitpunkt remineralisiert. Die Zugabe der C3-Cellulose führte hier nicht zu einer Remineralisation des immobilisierten Stickstoffs. Es bestätigte sich die Annahme, dass durch die Zugabe von leicht umsetzbaren Kohlstoffsubstraten die Bildung von mikrobiellen Residuen gesteigert werden kann. Die zweite Annahme, dass durch die Zugabe von N-freiem Substrat, hier C3-Cellulose, die mikrobiellen Residuen bevorzugt abgebaut werden, konnte nicht bestätigt werden.
Resumo:
In dieser Arbeit werden grundlegende Algorithmen für Ore-Algebren in Mathematica realisiert. Dabei entsteht eine Plattform um die speziellen Beschränkungen und Möglichkeiten dieser Algebren insbesondere im Zusammenhang mit Gröbnerbasen an praktischen Beispielen auszuloten. Im Gegensatz zu den existierenden Paketen wird dabei explizit die Struktur der Ore-Algebra benutzt. Kandri-Rody und Weispfenning untersuchten 1990 Verallgemeinerungen von Gröbnerbasen auf Algebren ordnungserhaltender Art (``algebras of solvable type''). Diese verhalten sich so, dass Buchbergers Algorithmus stets eine Gröbnerbasis findet. Es wird ein Beispiel gezeigt, an dem klar wird, dass es mehr Ore-Algebren ordnungserhaltender Art gibt als die in der Literatur stets betrachteten Operator-Algebren. Für Ore-Algebren ordnungserhaltender Art werden Algorithmen zu Gröbnerbasen implementiert. Anschließend wird der Gröbner-Walk für Ore-Algebren untersucht. Der Gröbner-Walk im kommutativen Fall wird mit einem instruktiven Beispiel vorgestellt. Dann wird zum nichtkommutativen Fall übergegangen. Es wird gezeigt, dass die Eigenschaft ordnungserhaltender Art zu sein, auf der Strecke zwischen zwei Ordnungen erhalten bleibt. Eine leichte Modifikation des Walks für Ore-Algebren wird implementiert, die im Erfolgsfall die Basis konvertiert und ansonsten abbricht. Es werden Beispiele angegeben, in denen der modifizierte Walk funktioniert sowie ein Beispiel analysiert, in dem er versagt.
Resumo:
Die Arbeit hat zum Ziel, die Beziehungen der Bewohnerinnen und Bewohner ihres neuen Stadtteils zu beobachten und zu erklären. Der Verfasser ist dabei teilnehmender Beobachter, da er seit über acht Jahren als Quartiersarbeiter in diesem Stadtteil tätig ist. Hintergrund der Tätigkeit des Verfassers und seiner Arbeit ist die Kritik an den Trabantenstädten der 1970er Jahre in Deutschland. Im weiteren Verlauf verfolgt die Arbeit einem soziologisch theoretischen Ansatz. Handlungen, Zeichen, Symbole, Konflikte, Distanzen und Prozesse der sozialen Durchmischungen werden in Bezug zu einzelnen Theorem gesehen. Der Handlungsansatz, der Milieuansatz, die Raumtheorien, Integration und Exklusion sind die fünf theoretischen Perspektiven. Diese werden jeweils zunächst auf Grundlage der wissenschaftlichen Literatur dargestellt, um dann einzelne Beobachtungen diesen jeweiligen Rahmen zuzuordnen. Neue Stadtteile sind in den letzten Jahren in Deutschland nicht viele entstanden. Zu viele negative Erfahrungen machten die Städte, die in 60er und 70er Jahren des 20 Jahrhunderts Trabenten- oder Satellitenstädte am Stadtrand errichteten. Die Stadt Freiburg war eine der ersten Städte, die Anfang der 90er Jahre wieder versucht einen neuen urbanen Stadtteil für 10 – 12 000 Einwohner auf der grünen Wiese zu planen und zu bauen. Die Leitfrage war darum, wie kann eine ähnlich problematische Entwicklung, wie sie die vielen anderen Neubaustadtteile genommen haben, im Stadtteil Rieselfeld verhindert werden. Vor diesem Hintergrund beauftragte die Stadt Freiburg ein Konzept zu unterstützen, dass neben dem Bau der Häuser und der Infrastruktur auch die Entsehung des sozialen und kulturellen Lebens fördern sollte. Die Trägerschaft für dieses Projekt „Quartiersaufbau Rieselfeld“ wurde der Kontaktstelle für praxisorientierte Forschung e. V., der Forschungsstelle der Evangelischen Fachhochschule Freiburg für Sozialwesen, für den Zeitraum von 1996 bis 2003 übertragen. Dieses Stadtentwicklungsprojekt war auch Arbeitgeber für den Verfasser dieser Arbeit. In den vorliegenden Text fliesen daher auch viele Alltagserfahrungen und auch biographische Anteile ein. Diese Arbeit will als eine sozialtheoretische Reflektion verstanden werden, die als Rahmen für lokalisierte empirische Beobachtungen dienen soll. Dies gewährleistete die absolute Nähe zu den Geschehnissen vor Ort, die Entwicklung im alltäglichen Leben mit den BewohnerInnen zu erleben, erschwerte aber die Distanz zur Reflexion dieses Prozesses. Aus dieser Nähe entwickelte sich im Lauf der Zeit, die Frage wie eigen sich die Bewohnerinnen und Bewohner ihren Stadtteil an. Dieses Interesse steht quasi über den alltäglichen sozialarbeiterischen Aufgaben und Herausforderungen. Die Hauptthese dieser Arbeit ist, dass sich die Aneignung des neuen Stadtteils durch einen ständigen Machtkampf, der auf den unterschiedlichsten Ebenen ausgetragen wird, vollzieht. Der Kern der Argumentation besteht neben theoretischen Überlegungen aus alltagstypischen Beobachtungen, die der Verfasser du Zusammenfassend orientiert sich die vorliegende Arbeit als machtsoziologischer Versuch an der genau verorteten Lokalisierung ihrer Produzenten, die sich im Laufe der letzten sieben Jahre herausgebildet und räumlich lokalisiert haben.
Resumo:
Diese Arbeit befasst sich mit der Innovations- und Globalisierungspolitik in kleinen Transformationsländern am Beispiel Mazedoniens; diese wurde mit der Lage in Slowenien verglichen, einem Land von ungefähr gleicher Größe und mit gemeinsamer Vergangenheit als Teilrepublik der Jugoslawischen Föderation, aber mit einem wesentlich höheren ökonomischen Entwicklungsstand. Innovation wird dabei verstanden als „Herstellung, Anpassung und Ausnutzung von Neuerungen“, und sie wird durch das Umfeld, in dem sie stattfindet, beeinflusst. Anpassung und Ausnutzung sind gerade für kleine Transformationsländer von erheblicher Bedeutung, da ihre Fähigkeit zu Herstellung von Neuerungen sehr begrenzt sind. Die Rolle der Innovationspolitik besteht hierbei darin, institutionelle und organisationelle Regulierungen einzuführen, die ein günstiges Umfeld sowohl für Innovationen als auch für die Entwicklung eines nationalen Innovationssystems schaffen. Die Rolle der Politik besteht also nicht in der Innovation als solcher, sondern in der Herstellung der notwendigen Bedingungen für die Industrie und die Forschungseinrichtungen dahingehend zu schaffen, dass sie ihr Wissen, ihre Fertigkeiten und ihre praktischen Erfahrungen für innovative Tätigkeiten einsetzen können. Auf der einen Seite gibt es Institutionen und Organisationen, ohne die die Unternehmen rückständig und wenig leistungsstark wären (etwa das Patentamt oder Institutionen höherer Bildung), und auf der anderen Seite gibt es Institutionen und Organisationen, welche die Unternehmen dabei unterstützen, dass sie ihre Tätigkeit weiter unterstützen (z.B. durch Technologietransfer-Zentren und Netzwerke). Die Leistungen dieser Institutionen und Organisationen sind von großer Bedeutung für die nationalen Innovationssysteme und sollten ihrerseits durch Innovationspolitik unterstützt werden; dies bedeutet jedoch nicht, dass diese Leistungen vom Staat bereitgestellt werden, vielmehr sollte die Wirtschaftspolitik Möglichkeiten für die öffentlich/private oder sogar rein private Bereitstellung solcher Leistungen in Erwägung ziehen; dies würde nicht nur die Kosten für den Staat senken, sondern auch die Effizienz bei der Erstellung dieser Leistungen steigern. Die Arbeit kommt zu dem Schluss, dass das größte Problem der Innovationspolitik in Mazedonien darin besteht, dass es sie gar nicht gibt, und zwar nicht als Folge einer bewussten Entscheidung darüber. Tatsächlich müssen Ressourcen und Zeit für die Schaffung eines nationalen Innovationssystems eingesetzt werden mit Hilfe einer Politik, die sich auf die wesentlichen Umrisse konzentriert, wobei die Nachfrage nach Technologie im Unternehmensbereich gesteigert wird und das Wissen und das Informationsangebot restrukturiert wird. Dieses System muss offen sein, unter beständigem Verbesserungsdruck stehen und fähig sein, sich an Veränderungen anzupassen. Damit eine solche Politik erfolgreich ist, muss es einen Konsens darüber zwischen allen beteiligten Akteuren geben und darüber hinaus auch eine Kohärenz zwischen den verschiedenen politischen Institutionen. Das ist deswegen wichtig, weil der Innovationsprozess komplex ist und verschiedene Politikbereiche berührt. Ziel sollte die Schaffung eines Systems sein, das einerseits auf Autonomie und Kooperation aufbaut, andererseits aber auch Wettbewerb zwischen den beteiligten Institutionen und Organisationen fördert. Eine wichtige Bedingung für ein positives Investitionsklima im Bereich der Innovation ist die Erreichung von makroökonomischer Stabilität. Die gegenwärtige Situation ist gekennzeichnet durch Instabilität des Rechtswesens, durch Korruption und Probleme des Vertragsschutzes, die sowohl ausländische als auch inländische Akteure davon abhält, sich in wirtschaftlichen Aktivitäten in Mazedonien zu engagieren. Bei der Suche nach einem Ausweg aus diesen Problemen ist es wichtig für Mazedonien, von anderen Ländern wie Slowenien zu lernen, die ähnliche Probleme haben, aber auch schon Erfahrungen in der Problemlösung. Man muss dabei beachten, dass der Entwicklungsstand, das wirtschaftliche und das politische Umfeld in beiden Vergleichsländern sich erheblich unterscheiden, so dass die Lektionen, die Mazedonien von Slowenien lernen könnte, nicht direkt übertragen und kopiert werden können, sondern entsprechend angepasst werden müssen. Die vorliegende Arbeit liefert Einsichten in die Probleme der Innovationspolitik in Transformationsländern und liefert daher sowohl einen Anreiz als auch eine Quelle von Informationen für künftige Analysen der wirtschaftlichen Bedingungen und vor allem Innovationspolitik in Transformationsländern.
Resumo:
Kindliches Stottern ist eine Störung des Sprechablaufs mit unbekannter Ätiologie, die im Verlauf der Sprachentwicklung beginnt und bei ungefähr 5% aller Kinder auftritt. Im deutschsprachigen Raum gibt es zum jetzigen Zeitpunkt kein Therapieverfahren zur Behandlung kindlichen Stotterns, dessen Therapie-Effekte empirisch gesichert sind. Darüber hinaus wurden bisher kaum Forschungsprojekte zum Stottern im Kindesalter durchgeführt. Ziel dieses von Juni 2003 bis Mai 2005 an der Universitätsklinik Frankfurt durchgeführten Projektes war es, die Wirksamkeit eines bisher in Deutschland noch nicht eingeführten Therapieverfahrens zur Behandlung von stotternden Vorschulkindern, das sog. Lidcombe Programm (Onslow, Packman & Harrison, 2003) zu untersuchen. In dem vorliegenden Projekt wurde untersucht, inwieweit die sofortigen Veränderungen der Sprechflüssigkeit während der Behandlung mit dem Lidcombe Programm primär auf diese Methode oder auf den Einfluss von Spontanremission zurückzuführen ist. Die übergeordnete Zielsetzung der Studie war die Schaffung einer Datengrundlage über die Effektivität des Lidcombe-Programms bei der Behandlung deutschsprachiger Vorschulkinder. Es wurden insgesamt 46 Vorschulkinder, welche nachfolgende Kriterien erfüllten, untersucht: (1) Alter zwischen 3,0 und 5,11 Jahren; (2) Deutsch als Muttersprache sowohl für das Kind als auch für die Eltern; (3) Beginn der Stottersymptomatik vor mindestens sechs Monaten; (4) Stottersymptomatik von mindestens 3% gestotterter Silben während einer Unterhaltung mit dem Untersucher und/oder den Eltern in der Klinik im Rahmen der Erstdiagnostik; (5) keine neurologischen Erkrankungen oder regelmäßige Einnahme von Medikamenten. Die Teilnehmer wurden randomisiert in zwei Gruppen eingeteilt. Die Kinder der Gruppe 1 begannen sofort mit der Behandlung mit dem Lidcombe-Programm. Die Kinder der Gruppe 2 warteten sechzehn Wochen und begannen dann mit der Behandlung. Für jedes Kind wurde der mittlere Prozentsatz gestotterter Silben zu Beginn jeder Behandlungsstunde im Gespräch mit der Therapeutin ermittelt, und darüber hinaus vor Beginn der Behandlung und nach sechzehn Therapiestunden auf Grund von jeweils vier zu Hause und in der Klinik aufgenommenen Spontansprachproben. Die Ergebnisse der vorliegenden Studie haben gezeigt, dass das Lidcombe-Programm auch für deutschsprachige Kinder ein effektives Therapiekonzept zur Reduktion einer Stottersymptomatik darstellt. Alle Vorschulkinder, die mit dem Lidcombe-Programm behandelt wurden, zeigten eine Abnahme des Prozentsatzes gestotterter Silben. Die Daten belegen ebenfalls, dass der Kurzzeit-Effekt des Lidcombe-Programms auf frühkindliches Stotterns den einer spontanen Remission überwiegt. Die behandelten Kinder zeigten eine signifikant höhere Abnahme ihrer Stottersymptomatik (M = 6,9%) als dies in der unbehandelten Kontrollgruppe (M = 2,5%) beobachtet werden konnte. Zwar sank auch in der Kontrollgruppe der Prozentsatz gestotterter Silben während des Untersuchungszeitraumes bei einigen Kindern, im Vergleich verringerte sich jedoch der Prozentsatz gestotterter Silben in der Therapiegruppe um mehr als das Doppelte. Diese ersten Daten weisen darauf hin, dass das Lidcombe-Programm für die deutschsprachige Therapie des kindlichen Stotterns eine ausgezeichnete Bereicherung darstellt und zu einer sinnvollen Ergänzung der therapeutischen Handlungskompetenz im Bereich der Redeflussstörungen führt.
Resumo:
Motiviert durch die Lebenswissenschaften (Life sciences) haben sich Untersuchungen zur Dynamik von Makromolekülen in Lösungen in den vergangenen Jahren zu einem zukunftsweisenden Forschungsgebiet etabliert, dessen Anwendungen von der Biophysik über die physikalische Chemie bis hin zu den Materialwissenschaften reichen. Neben zahlreichen experimentellen Forschungsprogrammen zur räumlichen Struktur und den Transporteigenschaften grosser MolekÄule, wie sie heute praktisch an allen (Synchrotron-) Strahlungsquellen und den Laboren der Biophysik anzutreffen sind, werden gegenwärtig daher auch umfangreiche theoretische Anstrengungen unternommen, um das Diffusionsverhalten von Makromolekülen besser zu erklären. Um neue Wege für eine quantitative Vorhersagen des Translations- und Rotationsverhaltens grosser Moleküle zu erkunden, wurde in dieser Arbeit ein semiphänomenologischer Ansatz verfolgt. Dieser Ansatz erlaubte es, ausgehend von der Hamiltonschen Mechanik des Gesamtsystems 'Molekül + Lösung', eine Mastergleichung für die Phasenraumdichte der Makromoleküle herzuleiten, die den Einfluss der Lösung mittels effektiver Reibungstensoren erfasst. Im Rahmen dieses Ansatzes gelingt es z.B. (i) sowohl den Einfluss der Wechselwirkung zwischen den makromolekularen Gruppen (den sogenannten molekularen beads) und den Lösungsteilchen zu analysieren als auch (ii) die Diffusionseigen schaften für veschiedene thermodynamische Umgebungen zu untersuchen. Ferner gelang es auf der Basis dieser Näherung, die Rotationsbewegung von grossen Molekülen zu beschreiben, die einseitig auf einer Oberfläche festgeheftet sind. Im Vergleich zu den aufwendigen molekulardynamischen (MD) Simulationen grosser Moleküle zeichnet sich die hier dargestellte Methode vor allem durch ihren hohen `Effizienzgewinn' aus, der für komplexe Systeme leicht mehr als fünf Grössenordnungen betragen kann. Dieser Gewinn an Rechenzeit erlaubt bspw. Anwendungen, wie sie mit MD Simulationen wohl auch zukünftig nicht oder nur sehr zögerlich aufgegriffen werden können. Denkbare Anwendungsgebiete dieser Näherung betreffen dabei nicht nur dichte Lösungen, in denen auch die Wechselwirkungen der molekularen beads zu benachbarten Makromolekülen eine Rolle spielt, sondern auch Untersuchungen zu ionischen Flüssigkeiten oder zur Topologie grosser Moleküle.
Resumo:
Die Aufarbeitung der Wechselwirkung von Politik, Schulentwicklung und dem mit dem Verfassungsauftrag verbundenen Verantwortungsbereich der Schulaufsicht und ihrer Steuerungsfunktion im Bildungswesen ist Thema der Studie. Es sollen die Kontexte von Bildungsplanung, Steuerung der Schulentwicklung und Schulaufsicht bezogen auf die „autonome“ Schule am Beispiel Hessens dargestellt, analysiert und Perspektiven aufgezeigt werden. Die rechtlichen Grundlagen der Schulentwicklung und ihre bildungspolitischen Ausprägungen und die Strukturen und die Organisation der Bildungsverwaltung – mit einer Fokussierung auf die „inneren“ und „äußeren“ Schulangelegenheiten - werden dargestellt und die Entwicklungsprozesse analysiert. An den Beispielen Mittelpunktschule/Förderstufe und Schulprogramm wird der Versuch unternommen, die veränderten Rollen und Funktionen der Schulaufsicht in Verbindung mit den jeweiligen Entwicklungsphasen der Schulaufsichtsorganisation seit 1945 aufzuzeigen. Im Spannungsfeld von Politik, Pädagogik und Ökonomie war und ist die Steuerung der Schulentwicklung durch die Bildungsverwaltung ein zentrales gestaltendes Element. Die Schulforschung hat in der Vergangenheit dem Bereich der Bildungsverwaltung, hier insbesondere der Schulaufsicht, relativ wenig Aufmerksamkeit geschenkt. Dabei ist die Schulaufsicht nicht nur im Grundgesetz sondern in allen Länderverfassung als „hoheitliche“ Aufgabe verankert und in den entsprechenden Schulgesetzen als Dienst-, Fach- und Rechtsaufsicht über die Schulen ein fester Bestandteil des staatlichen Gewaltmonopols. Nicht nur die Schulaufsicht als Teil der Bildungsverwaltung und ihre direkte und indirekte Rolle bei der Steuerung der Schulentwicklung in Hessen, auch der Einfluss der Finanzpolitik sowie die Auswirkungen der internationalen Vergleichsuntersuchungen und der Europäisierung (TIMSS, PISA, IGLU, Bologna, Lissabon, EU-Programme, internationale Organisationen) werden kontextuell behandelt. Die Auswirkungen finanzpolitischer Entscheidungen ("schlanker Staat") und die Einführung der Neuen Verwaltungssteuerung in Hessen auf die weiteren Perspektiven der Schulaufsicht und die Bildungsverwaltung insgesamt werden im Kontext zu den übrigen Bundesländern auf Grund aktueller politischer Entscheidungen im Zusammenhang mit der Diskussion um Qualitätssicherung im Bildungswesen aufgezeigt und künftige Funktionen und Gestaltungsmöglichkeiten der Schulaufsicht als „regionaler Qualitätsagentur“ perspektivisch entwickelt.
Resumo:
In der vorliegenden Arbeit wurde gezeigt, wie mit Hilfe der atomaren Vielteilchenstörungstheorie totale Energien und auch Anregungsenergien von Atomen und Ionen berechnet werden können. Dabei war es zunächst erforderlich, die Störungsreihen mit Hilfe computeralgebraischer Methoden herzuleiten. Mit Hilfe des hierbei entwickelten Maple-Programmpaketes APEX wurde dies für geschlossenschalige Systeme und Systeme mit einem aktiven Elektron bzw. Loch bis zur vierten Ordnung durchgeführt, wobei die entsprechenden Terme aufgrund ihrer großen Anzahl hier nicht wiedergegeben werden konnten. Als nächster Schritt erfolgte die analytische Winkelreduktion unter Anwendung des Maple-Programmpaketes RACAH, was zu diesem Zwecke entsprechend angepasst und weiterentwickelt wurde. Erst hier wurde von der Kugelsymmetrie des atomaren Referenzzustandes Gebrauch gemacht. Eine erhebliche Vereinfachung der Störungsterme war die Folge. Der zweite Teil dieser Arbeit befasst sich mit der numerischen Auswertung der bisher rein analytisch behandelten Störungsreihen. Dazu wurde, aufbauend auf dem Fortran-Programmpaket Ratip, ein Dirac-Fock-Programm für geschlossenschalige Systeme entwickelt, welches auf der in Kapitel 3 dargestellen Matrix-Dirac-Fock-Methode beruht. Innerhalb dieser Umgebung war es nun möglich, die Störungsterme numerisch auszuwerten. Dabei zeigte sich schnell, dass dies nur dann in einem angemessenen Zeitrahmen stattfinden kann, wenn die entsprechenden Radialintegrale im Hauptspeicher des Computers gehalten werden. Wegen der sehr hohen Anzahl dieser Integrale stellte dies auch hohe Ansprüche an die verwendete Hardware. Das war auch insbesondere der Grund dafür, dass die Korrekturen dritter Ordnung nur teilweise und die vierter Ordnung gar nicht berechnet werden konnten. Schließlich wurden die Korrelationsenergien He-artiger Systeme sowie von Neon, Argon und Quecksilber berechnet und mit Literaturwerten verglichen. Außerdem wurden noch Li-artige Systeme, Natrium, Kalium und Thallium untersucht, wobei hier die niedrigsten Zustände des Valenzelektrons betrachtet wurden. Die Ionisierungsenergien der superschweren Elemente 113 und 119 bilden den Abschluss dieser Arbeit.
Resumo:
Zwischennutzungen sind ein Alltagsphänomen, das seit Ende der 1990er Jahre im wissenschaftlichen Kontext und der kommunalen Praxis der Stadt- und Freiraumentwicklung auffallend an Aufmerksamkeit gewinnt. Die vorliegende Arbeit widmet sich dem Phänomen aus der Perspektive der Freiraumentwicklung als kommunaler Aufgabe. Im Zentrum des Interesses steht die Frage, welche aktuelle Bedeutung Zwischennutzungen, verstanden als die vorübergehende Freiraumnutzung brachliegender Baugrundstücke, für freiraumbezogene öffentliche Aufgaben und Handlungsansätze haben bzw. welche Potentiale sie dafür bieten. Vor dem Hintergrund heterogener gesellschaftlicher und räumlicher Gegebenheiten, der Erkenntnis um eine begrenzte hoheitliche Steuerbarkeit der weiteren stadträumlichen Entwicklung und angesichts knapper Haushaltsmittel ist die kommunale Freiraumentwicklung gefordert, sich bezüglich ihrer Kernaufgaben aber auch bezüglich ihrer Rolle bei der Erfüllung dieser Aufgaben neu zu positionieren. Vermehrt werden Forderungen nach einem Abgehen von „allgemeingültigen“ Versorgungsstandards und traditionellen „Produktionsprozessen“ laut. Flexiblere Freiraumangebote sollen Gestaltungsspielräume für eigeninitiatives Handeln und wechselhafte oder neuartige Nutzungen eröffnen. Mit dem Setzen von Prioritäten, einer verstärkten Kundenorientierung und aktivierenden bzw. kooperativen Handlungsansätzen soll der schlechten Haushaltslage begegnet werden. Zwischennutzungen deuten aufgrund ihrer funktionalen, räumlichen und zeitlichen Flexibilität Möglichkeiten an, auf diese Anforderungen einzugehen. Der Blick in die Verwaltungspraxis einzelner Städte zeigt, dass Zwischennutzungen in der kommunalen Freiraumentwicklung in verschiedenen Zusammenhängen gezielt aufgegriffen werden und dabei diverse Bezüge zu diesen aktuellen Anforderungen herstellen lassen. Der Stellenwert, der ihnen beigemessen wird, reicht dabei vom Ausnahmefall bis zum bewährten Ansatz. Mit den Maßnahmen werden häufig akute bzw. kurzfristige Ziele verfolgt, etwa die vorübergehende Schaffung zusätzlicher Spiel- und Aufenthaltsmöglichkeiten oder die Aufwertung brachliegender Flächen durch extensive Gestaltungsmaßnahmen. Die Projekte sind häufig charakterisiert durch intensive Kooperationen mit anderen öffentlichen und mit nicht-öffentlichen Akteuren. Die Einbindung von Zwischennutzungen in das alltägliche Verwaltungshandeln ist allerdings auch mit diversen Schwierigkeiten verbunden, wie erste Institutionalisierungsansätze in manchen Städten zeigen. Die Verknüpfung unterschiedlicher Zeithorizonte im Planungsgeschehen, die Verbindung des temporären Phänomens Zwischennutzung mit dem traditionellerweise auf Dauerhaftigkeit ausgerichteten Aufgabenverständnis der kommunalen Freiraumentwicklung verlangt nach einer Modifizierung bisheriger Positionen und Herangehensweisen. Ein solcher Anpassungsprozess im Verwaltungshandeln lässt sich nur langfristig und schrittweise bewältigen und ist als Teil der – angesichts aktueller Entwicklungen notwendigen – Weiterentwicklung freiraumbezogener Aufgaben und Handlungsansätze zu verstehen. Zwischennutzungen können neben ihren kurzfristig umsetzbaren Funktionen einen Beitrag dazu leisten.
Resumo:
Die vorliegende Arbeit besteht aus einem theoretischen Teil, der Filmrezeption aus weiblicher Sicht zum Gegenstand hat und einem praktischen Teil, der 8 Filme über die Methode von Übertragung und Gegenübertragung erschließt. Es wird die These vertreten, daß Film nicht nur gesehen, sondern auch verzehrt und verschlungen wird. Das Konzept der Lewinschen Traumleinwand als visueller Erinnerungsspur und die Annahme der taktilen, primären Wahrnehmung, die René Spitz in der Mundhöhle situiert, die er als Urhöhle bezeichnet, dient der Darstellung dieses doppelten Wahrnehmungsansatzes. Das Konzept Daniel Sterns von der „amodalen Wahrnehmung“ kann den Transfer von visueller zu akustischer Rezeption von Film erklären. Es wird die Annahme vertreten, daß es zu einer Regression auf die Stufe der Wiederbelebung einer halluzinatorischen Einheit mit einer frühen prägenitalen Mutter kommt, die sich in multiplen primären Identifizierungen der Zuschauerin niederschlägt. Es wird ein weiblicher Blick auf den Film postuliert. Die Autorin geht davon aus, daß diese Regression, aufgrund spezifischer weiblicher Entwicklung, Frauen leichter fällt als Männern. Die Arbeit stellt die ursprünglich von der feministischen Filmtheorie vertretene Auffassung von der ausschließlichen Auslösung von phallischen Identifizierungen aufgrund der Annahme der Verschweißung des männlichen Zuschauerblicks mit der männlichen Filmkamera in Frage. Die Filminterpretationen verdanken sich einem intersubjektiven methodischen Zugang. Der Film wird zu einem Partner, mit dem die Autorin interagiert; er hat die Qualität eines Übergangsobjekts. Im Prozess des Erlebens und des Verstehens bewegt sich Mechthild Zeul in einem „intermediären Raum“ (Winnicott), in dem sich psychische Realität mit äußerer Realität mischen. Theoretisch wird dieser Raum in Anlehnung an René Spitz als „Urhöhle“ bezeichnet.
Resumo:
Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.
Resumo:
Die Arbeit behandelt den Vorschlag für eine EU-Verordnung KOM/2000/7/final, 2000/0212(COD) des europäischen Parlaments und des Rates von der Kommission der Europäischen Gemeinschaften als Grundlage einer Marktöffnungsverordnung und welche Veränderungen sich dadurch in Deutschland einstellen werden. Ausschreibungen von Verkehrsleistungen werden zunehmen. Die Ausschreibungsarten werden sich in ländlichen Regionen von denen in Verkehrszentren unterscheiden. In der Region werden sich Bedarfslösungen stärker durchsetzen. Kürzungen von Verkehrsleistungen werden hier stärker ausfallen als in den Zentren und damit zu einem kleineren Leistungsvolumen führen. Aufgrund des geringen Leistungsumfangs gibt es weniger Interessenten. Bei Standardausschreibungen werden deshalb auch häufig die Varianten der beschränkten oder die freihändige Vergabe gewählt. Funktionale Ausschreibungen haben nur eine untergeordnete Bedeutung. In den Verkehrszentren sind die Lose größer und damit für viele Anbieter interessant. Die Verkehrszusatzleistungen sind zudem komplexer. Standardausschreibungen in öffentlicher Vergabeart werden sich hier vermutlich als Norm durchsetzen. Die VOL/A wird sicherlich ihre Bedeutung und ihren dafür notwendigen Regelungsumfang in Deutschland als deutsches oder als europäisches Recht behalten. Ob der empfehlende Charakter der DIN EN 13816 Norm „ÖPNV: Definition, Festlegung von Leistungszielen und Messung der Servicequalität“ erhalten werden kann und nicht als Steuerungselement zur Standardisierung im ÖPNV beitragen wird, ist dabei zu bezweifeln. Durch diese Wettbewerbspflicht wird der Aufgabenträger zum Besteller von Verkehrsleistungen. Damit geht die Verkehrsplanung in die Verantwortung des Aufgabenträgers über und gerät stärker in den Einflussbereich der Politik. Die strategisch abstrakte und die konkrete Verkehrsplanung wachsen für den Normfall der Standardausschreibung zusammen. Die Hoffnung auf eine bessere Netzintegration und eine Standardisierung des ÖPNV Angebots und der ÖPNV Qualität entsteht. Es entwickelt sich dadurch aber auch die Gefahr der Abhängigkeit des Nahverkehrsangebots von der derzeitigen Haushaltslage oder der Interessenlage der Politik. Kontinuität in Angebot und Qualität werden zu erklärten Planungszielen. Der Verkehrsplaner auf der Bestellerseite muss die Planung in Ausschreibungsunterlagen umsetzen. Dies erfordert erweiterte Kompetenzen in den Bereichen Betriebswirtschaft, Logistik, Jura, Informatik und Führungskompetenzen. Ausbildende Institutionen müssen darauf bereits im Vorfeld der Umsetzung reagieren. Durch die zeitliche Verzögerung der Umsetzung der Planung durch die Ausschreibungsschritte sind in der Verkehrsplanung längere Planungsvorlaufzeiten einzukalkulieren. Vorausschauender zu planen, wird dabei wichtiger. Auch eventuelle Fehler in der Planung sind nicht mehr so einfach zu korrigieren. Durch den gestiegenen Einsatz von Technologien in den Fahrzeugen besteht für den Verkehrsplaner dafür häufiger die Möglichkeit, Planungsänderungen auf ihre Wirksamkeit im Hinblick auf Attraktivität für den Fahrgast anhand von den ermittelten Fahrgastzahlen zu kontrollieren. Dasselbe gilt auch für Marketing- und Vertriebsmaßnahmen, wie für die Tarifpolitik. Die Zahlen stehen nicht nur für diese Rückkopplung zur Verfügung, sondern dienen auch als Planungsgrundlage für zukünftige Maßnahmen. Dem Planer stehen konkretere Zahlen für die Planung zur Verfügung. Ein Aspekt, der aufgrund der Sanktionsmaßnahmen bei Ausschreibungen an Bedeutung gewinnen wird, ist die Möglichkeit, Qualität von Verkehrsleistungen möglichst objektiv beurteilen zu können. Praxisrelevante Auswirkungen auf die Verkehrsplanung des öffentlichen Personennahverkehrs ergeben sich hauptsächlich durch die gestiegene Komplexität in der Planung selbst und den dadurch unverzichtbaren gewordenen Einsatz von Computerunterstützung. Die Umsetzung in Ausschreibungsunterlagen der Planung und die Kontrolle stellen neue Elemente im Aufgabenbereich des Verkehrsplaners dar und erfordern damit breiter ausgelegte Kernkompetenzen. Es werden mehr Verkehrsplaner mit breiterer Ausbildung benötigt werden. Diese Arbeit hat aufgezeigt, dass sich mit der Integration des Ausschreibungsgedankens in den Ablauf der Verkehrsplanung eine sprunghafte Entwicklung in der Planungstätigkeit ergeben wird. Aufgrund der in Zukunft steigenden Qualität und Quantität der Planungsgrundlagen und der ebenfalls gestiegenen Ansprüche an die Bewertungsparameter ergeben sich Veränderungen und neue Anforderungen auf diesem Gebiet, die in erster Linie für die Hochschulen und andere ausbildende Einrichtungen, aber auch für die Verkehrsplanung unterstützende Industrie.
Resumo:
Neuropeptid Y (NPY) ist ein potenter Neurotransmitter im zentralen und peripheren Nervensystem der Mammalia. Es ist an der Regulation einer Vielzahl von physiologischen Prozessen beteiligt und scheint auch im retino-tectalen Transfer des visuellen Systems von Anuren eine zentrale Funktion einzunehmen. Die Retina bildet die erste Funktionseinheit bei der Verarbeitung visuellen Inputs. Für die Weiterverarbeitung sind primär das Tectum opticum (TO) und das Praetectum verantwortlich. Es gilt als wahrscheinlich, dass der praetecto-tectale Transfer durch NPY inhibitorisch moduliert wird und damit wesentlichen Einfluss auf die visuelle Mustererkennung und die Dämpfung der tectalen Erregungsausbreitung hat. Die Applikation von NPY auf die Tectumoberfläche schwächt die anfängliche Erregungswelle visuell evozierter Feldpotenziale stark ab und NPY könnte somit Einfluss auf die Axonendknoten retinaler Ganglienzellen des Typs R2, R3 und auch R4 haben. Es können jedoch keine detaillierten Aussagen gemacht werden welche Neuronen in welchem Umfang daran beteiligt sind. Im Rahmen meiner Arbeit, sollte der Einfluss von NPY auf die Spike-Amplitude und die Spike-Rate retinaler Ganglienzellen R2 und R3 bei Bombina orientalis analysiert werden, da diese den größten Input bei der visuellen Mustererkennung liefern und unterschiedliche Funktionen in diesem neuronalen Netzwerk haben. Hierzu wurden visuell evozierte Aktionspotenziale von R2 und R3 Neuronen im TO von Bombina orientalis abgeleitet und mit Hilfe der Analysesoftware Spike 2 bearbeitet und analysiert. Es konnte nachgewiesen werden, dass die Spike-Amplituden der R2 Neuronen 20 min nach NPY Applikation auf die Tectumoberfläche reduziert werden. Nach einer Erholungsphase 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Amplituden gemessen werden, 20 min nach Beenden der NPY-Applikation kam es zu einem Abfall der Spike-Amplituden dessen Ursache unbekannt ist. Ob es ein Artefakt ist oder ob es sich hierbei um einen spezifischen Effekt von R2 Neuronen handelt muss noch geklärt werden. Die Spike-Amplituden der R3 Neuronen waren bereits 10 min nach NPY-Applikation reduziert, ein weitere Abfall der Spike-Amplituden konnte nicht verzeichnet werden. 10 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Amplituden verzeichnet werden, der sich stetig fortsetzte. Bei beiden Neuronentypen wurden 20 min nach Beenden der NPY-Applikation Spike-Amplituden nahe der Ausgangsamplitudenhöhe gemessen. Aufgrund des Verlaufes der R3 Neuronen ist davon auszugehen, dass die Feldpotenziale eher durch R3 Neuronen als durch R2 Neuronen beeinflusst werden, da er dem der Feldpotenziale gleicht. Auch bei der Untersuchung der Spike-Raten konnte eine Beeinflussung durch NPY nachgewiesen werden. Die R2 Neuronen zeigten 10 min nach NPY-Applikation einen Abfall der Spike-Raten der sich nach 20 min weiter fortsetzte. 10 min nach Beenden der NPY-Applikation konnte ein Wiederanstieg der Spike-Raten verzeichnet werden der sich stetig fortsetzte, die Werte blieben jedoch deutlich unter den gemessenen Ausgangswerten ohne eine NPY-Beeinflussung. Bei den R3 Neuronen konnte ein Abfall der Spike-Raten deutlich zeitverzögert nachgewiesen werden. 20 min nach Beenden der NPY-Applikation konnte ein Anstieg der Spike-Rate verzeichnet werden, jedoch gab es keine signifikanten Unterschiede der Spike-Raten zu den Werten ohne NPY-Beeinflussung. Der Vergleich der R2 und R3 Neuronen zeigt, dass bei den der R2 Neuronen ein schnellerer Effekt von NPY nachweisbar ist als die den R3 Neuronen. Aufgrund der von mir nachgewiesene NPY-induzierte Spike-Amplitudenabnahme retinaler R2 und R3 Neuronen muss davon ausgegangen werden, dass die Reduktion der Feldpotential durch NPY eher auf den Einfluss anderer Neuronen als R2 und R3 Neuronen zurückzuführen ist. Weder bei den R2 noch bei den R3 Neuronen konnte eine so schnelle und so starke Beeinflussung der Spike- Amplituden verzeichnet werden. Weiterhin zeigen meine Ergebnisse neuronale Bestätigung der von Funke 2005 beschrieben geringeren Strahlungsintensität sowie der geringeren Glukosemetabolisierung bei der 14C-2-Desoxyglukose Technik. Dies ist in der Form nur auf den Einfluss von R2 und R3 Neuronen zurückzuführen. Die von mir erzielten Ergebnisse stützen die Hypothese, dass NPY den retino-tectalen Signaltransfer inhibitorisch steuert einhergehend mit einer reduzierten Ausschüttung des praetectotectalen Transmitters Glutamat und weisen darauf hin, dass NPY über zwei verschiedene second-messenger vermittelte Prozesse diesen Signaltransfer steuert. Interessant ist in diesem Zusammenhang, dass diese nachhaltige Beeinflussung der visuellen Informationsverarbeitung durch NPY bei Bombina orientalis einem phylogenetisch basalen Vertreter der Anuren nachgewiesen werden konnte. Dies lässt den Schluss zu, dass solche grundlegenden neurochemischen Effekte des retino-tectalen Informationsgefüges evolutionär konserviert sind.
Resumo:
Die medienrechtliche Diskussion in Deutschland, aber auch in anderen Mitgliedstaaten, hat sich bisher (zu) wenig mit den Maßgaben des europäischen Medienrechts befasst und wurde (zu) häufig von aktuellen Themen auf nationaler Ebene überlagert. Dies wird dem großen Einfluss, den das Gemeinschaftsrecht auf die Ausgestaltung der nationalen Medienordnungen ausübt und künftig in (wohl) zunehmendem Maß ausüben wird, nicht gerecht. In den letzten 25 Jahren hat sich ein eigenständiges "europäisches Medienrecht" herausgebildet, dessen Konturen in diesem Beitrag beschrieben werden. Nach einer kurzen Einführung (I.) werden ausgehend von den Grundrechten des Europäischen Verfassungsvertrags und Grundfreiheiten des EGV (II.) die wichtigsten Regelungsbereiche des europäischen Medienrechts skizziert und deren Entwicklungstendenzen angedeutet (III.). Ein Ausblick schließt den Beitrag ab (IV.).
Resumo:
Am Beispiel eines umfangreichen Reformprojekts, nämlich der Qualifizierungsmaßnahme "Führungskräfte als Personalentwickler", wurde die Problematik von Veränderungsprozessen in der Großorganisation Polizei dargestellt. Die zweijährige Qualifizierungsmaßnahme hatte als direktes Ziel, Führungskräfte der niedersächsischen Landespolizei zu Personalentwicklern zu qualifizieren. Auf diesem Wege sollte im Sinne eines Multiplikatoreffekts das indirekt anvisierte Ziel, die Umstellung der Organisation der Polizei von einer hierarchisch-bürokratisch geführten zu einer kooperativen mitarbeiter-orientierten Organisation vorangetrieben werden. Untersucht wurden in dieser Arbeit die Auswirkungen der Qualifizierungsmaßnahme auf die Organisation Polizei Niedersachsen und die beteiligten Führungskräfte. Die wesentlichen Befunde der drei zentralen Untersuchungsebenen, 1. Lernteil: die Wirkungen der Inhalte der Seminarbausteine auf die Teilnehmer, 2. Praxisteil: die Einführung von personalentwicklerischen Innovationen in die Arbeitsbereiche der Teilnehmer durch Projektarbeit, 3. Organisationsteil: die Implementation innovativer Personalentwicklung in die Gesamtorganisation, belegen, dass die Polizei ein komplexer Organismus ist, der nur begrenzt linearen Steuerungsmechanismen gehorcht. Die reibungsvolle Gleichzeitigkeit von Alt und Neu schafft Konflikte und Widerstände. Reformprozesse konfrontieren die Alltagsorganisation Polizei in besonderem Maße mit widersprüchlichen Handlungslogiken, was in der Reaktion dazu führt, die Widersprüche weitestgehend zu vermeiden oder zurückzuweisen. Da diese auftretenden Widersprüche nicht reflektiert und damit nicht thematisiert werden, kommt es nicht zu weiter führenden Aushandlungsprozessen auf der Ebene der Gesamtorganisation. So bleibt als Ergebnis festzuhalten: Der individuelle Lernwert der an der Qualifizierungsmaßnahme beteiligten Führungskräfte kann durchgängig als "hoch" bezeichnet werden. Das intendierte Ziel eines breit angelegten Strategiewandels durch Personalentwicklung wurde dagegen verfehlt, da es an begleitenden Unterstützungs- und Entwicklungsmaßnahmen in der Organisation mangelte. Somit stützt und belegt diese Dissertation das Verständnis von prozessualen Dynamiken, die das Geschehen in der Organisation und damit auch das Schicksal von Veränderungsprozessen bestimmen. Reformprozesse sind niemals allein mit der mechanistischen Gestaltung von Organisationszielen, also der Durchführung von Programmen, sondern sowohl mit der Dynamik interner Machtprozesse als auch mit der Art und Weise des Umgangs mit widersprüchlichen Handlungslogiken konfrontiert. Werden letztere nicht zur Kenntnis genommen und bearbeitet bzw. mit traditionellen Lösungsstrategien angegangen, dann bleiben Innovationen suboptimal – wie dies in der untersuchten Maßnahme der Fall ist.