1000 resultados para nichtproduktive Prozesse
Resumo:
l. Einleitung/Ausgangssituation - Auswirkungen unabgestimmter Prozesse - Prozeßnahe Werkstattsteuerungen 2. Defizite, Prozeßanforderungen - Daten-Anforderungsprofil - Datenvolumen-Trichtermodell - Argumente für Leitstand-Einsatz 3. Integrierter Leitstandeinsatz - Top-Down-Ansatz - Integrierte Regelkreise - Hierarchisches Planungs- und Steuerungskonzept 4. Abgrenzung zwischen Leitstand-, PPS und BDE-Funktionen - Ressourcen-Verfügbarkeitsanforderungen - Leitstand-Funktionsumfang - Integrierter Logistik-Sollablauf 5. Kennzeichen der 2ten Leitstandgeneration - Wissensbasierter LS-Einsatz - Event-Steuerungen 6. Anforderungsgerechte Leitstandeinführung - CIM-house-Modell - Mitarbeiter-Anforderungen
Resumo:
In Niedersachsen setzt das Ministerium für Wissenschaft und Kultur seit 2007 ein Hochschulkennzahlensystem ein, um einen Teil des Grundhaushalts wettbewerblich an die Hochschulen zu verteilen. Über die Mittelvergabe hinaus ist ein Monitoringsystem integriert, mit dem die Entwicklung der Hochschulen beurteilt werden kann. Zur differenzierten Beurteilung werden monetäre und nichtmonetäre Hochschuldaten zu Kennzahlen verdichtet. Die Kennzahlen befinden sich jedoch auf einer zu hohen Aggregationsebene für ein hochschulinternes Controlling an der Fachhochschule Hannover. Daher dienen Berichtssysteme mit Standardberichten der Information über hochschulweite Prozesse und Ressourcen, um im zunehmenden Wettbewerb der Fachhochschulen fundierte Entscheidungen treffen zu können. Beispielhaft werden Standardberichte zu erbrachten Lehrleistungen als erste Komponente des nichtmonetären Controllings in einem Berichtssystem konzipiert. Methodisch basiert die Konzeption auf einer Informationsbedarfsanalyse mit induktiven und deduktiven Verfahren. Das Vorgehen lässt sich grundsätzlich auf weitere nichtmonetäre Leistungen (z. B. der Forschung) übertragen und in die konzipierte Struktur integrieren.
Resumo:
Neben circa 22.000 verschiedenen kultivierten Pflanzenarten besitzt die Zentraleinrichtung Botanischer Garten und Botanische Museum Berlin-Dahlem (BGBM) ca. 3,8 Millionen konservierter Pflanzenbelege aus aller Welt in seinem Herbarium. Diese Herbarbelege dienen als Grundlage wissenschaftlicher Forschung. Über die Erstellung digitaler Kopien kann das Versenden des empfindlichen Materials verhindert und der Zugang für Forscher erheblich erleichtert werden. Die Prozesse und Methoden der Digitalisierung werden in Herbar Digital untersucht, um eine Senkung der Kosten zu ermöglichen. In dem vorliegenden Arbeitspapier wird der Einsatz einer Balanced Scorecard als Steuerungsinstrument der Herbarbeleg-Digitalisierung untersucht. Das Instrument misst die Zielerreichung und unterstützt so Entscheidungen der Führung. Vision und Strategie der Unternehmung werden in mehreren Perspektiven operationalisiert. Für jedes Ziel sind Indikatoren, Sollwerte, Istwerte und Maßnahmen zu definieren. Die Istwerte werden zu den Indikatoren und Zeitpunkten verdichtet und zeigen so den Zielerreichungsgrad an. In einem individuellen Dashboard werden die Ziele, Indikatoren, Zielwerte, Maßnahmen und weitere Informationen angezeigt und können kommentiert werden. Die Planwerte sind die Basis für den operativen Planungsprozess. Die Struktur sieht vor, dass die Ziel-Dashboards aller Organisationseinheiten einer Hochschule schließlich zu Sub- und Teil-Balanced Scorecards miteinander verknüpft werden können. Es ergibt sich je nach Sachverhalt eine Übersicht über die Ziele und korrespondierenden Indikatoren sowie deren Entwicklung und Maßnahmen. Dies wird am Beispiel der Herbarbeleg-Digitalisierung verdeutlicht.
Resumo:
Um den theoretischen Hintergrund der Produktentwicklung darzustellen, werden im Einstieg der Arbeit das Projekt- sowie das Qualitätsmanagement vorgestellt und in Bezug auf das Projekt einer Prototypenentwicklung gesetzt. Es werden die einzelnen Phasen, Anträge und Projektvereinbarungen erläutert, was einen Einblick in den Aufbau des gesamten Konzeptes bieten soll. Das Qualitätsmanagement ist ein breit gefächertes Gebiet und wird in so gut wie jeder Sparte verwendet, um Prozesse zu optimieren und Probleme sowie Fehler zu beheben. Die wichtigsten Werkzeuge in der Entwicklung von Vorserien, wie das Quality Function Deployment, das House of Quality, die Fehler-Möglichkeits- und Einfluss-Analyse und die Risikoprioritätszahl, werden vorgestellt. Es wird im Einzelnen erläutert, wie sie in der Entwicklung von Traktoren Anwendung finden. Weiterhin wird ein praktischer Teil der Arbeit erläutern, welche Aufgaben und Prozessschritte in der Entwicklung sowie Validierung anstehen, außerdem auf welche Merkmale zu achten ist. Im letzten Kapitel wird auf die Erprobung der Prototypen eingegangen, wie eine Homologation abläuft, welche Vorgehensweisen es gibt und welche Erkenntnisse die dazugehörige Datenauswertung bieten. Im letzten Unterkapitel 4.5 Diskussion wird hier auch die eigene Meinung sowie Erfahrung mit eingebracht sowie Verbesserungsmöglichkeiten aufgezeigt. Zur besseren und übersichtlicheren Erläuterung der einzelnen Durchführungen wird nach jedem Kapitel der grobe Ablauf in einem Datenflussdiagramm dargestellt. Resümierend werden anschließend die Kerninhalte der vorliegenden Arbeit in einem Fazit zusammengefasst.
Resumo:
Das wohl bekannteste Phänomen der Urteils- und Entscheidungsforschung im Kontext numeri-scher Urteile ist der Ankereffekt. Dieser bezeichnet die Assimilation einer numerischen Schätzung oder Prognose an einen salienten Wert, dem sogenannten Anker, auch unabhängig von dessen inhaltlicher Relevanz. Die Frage nach den Ursachen von Ankereffekten wird bis zum aktuellen Zeitpunkt kontrovers diskutiert. Die Bedeutung eines Erklärungsmodelles, dem sogenannten numerischem Priming, innerhalb dieser Diskussion ist Gegenstand der vorliegenden Arbeit. Im Theorieteil wird zunächst der Ankereffekt, seine inhaltliche Einordnung und seine Relevanz aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden die gängigen Erklärungsmodelle zum Ankereffekt vorgestellt. Ein Schwerpunkt hierbei liegt auf einer kritischen Auseinandersetzung mit dem Modell der selektiven Zugänglichkeit (Selective Accessibility Model, kurz: SAM), dem wohl prominentesten Modell aus Sicht der momentanen Forschung. Zwei an den Theorieteil anschließende Fragestellungen sind dann der Gegenstand des empirischen Teils der Arbeit. Zum einen soll überprüft werden, ob Ankereffekte im Standardparadigma, wie bisher angenommen, allein auf den Prozessen des SAM basieren oder ob zusätzlich auch numerisches Priming am Zustandekommen des Ankereffektes in diesem Paradigma beteiligt ist. Zum anderen werden Voraussetzungen für das Auftreten von Ankereffekten durch numerisches Priming untersucht, inbesondere die als relevant eingeschätzte Bedeutung der Aufmerksamkeit gegenüber dem Ankerwert. Beide Experimente verwenden neue, im Kontext von Ankereffekten bisher nicht eingesetzte experimentelle Paradigmen. Um die Bedeutung semantischer Prozesse im Zusammenspiel mit numerischen Prozessen zu untersuchen, wird ein so genannter Objektvergleich eingesetzt. Der Stellenwert von Aufmerksamkeit hingegen wird überprüft, in dem die Ankerwerte subliminal, also unterhalb der Wahrnehmungsschwelle, präsentiert werden. Beiden Experimenten ist jeweils eine Voruntersuchung vorangestellt, die notwendige Bedingungen für die entsprechenden Experimente überprüfen. In der abschließenden Diskussion werden die Ergebnisse der beiden Untersuchungen noch einmal zusammengefasst, und deren Implikationen angesichts der bisher vorliegenden Erkenntnisse aus theoretischer wie praktischer Sicht diskutiert. Des weiteren werden mögliche Forschungsfragen und denkbare experimentelle Untersuchungen hierzu skizziert, die an die innerhalb dieser Arbeit vorgelegten Ergebnisse sinnvoll anschließen könnten.
Resumo:
Mikrooptische Filter sind heutzutage in vielen Bereichen in der Telekommunikation unersetzlich. Wichtige Einsatzgebiete sind aber auch spektroskopische Systeme in der Medizin-, Prozess- und Umwelttechnik. Diese Arbeit befasst sich mit der Technologieentwicklung und Herstellung von luftspaltbasierenden, vertikal auf einem Substrat angeordneten, oberflächenmikromechanisch hergestellten Fabry-Perot-Filtern. Es werden zwei verschiedene Filtervarianten, basierend auf zwei verschiedenen Materialsystemen, ausführlich untersucht. Zum einen handelt es sich dabei um die Weiterentwicklung von kontinuierlich mikromechanisch durchstimmbaren InP / Luftspaltfiltern; zum anderen werden neuartige, kostengünstige Siliziumnitrid / Luftspaltfilter wissenschaftlich behandelt. Der Inhalt der Arbeit ist so gegliedert, dass nach einer Einleitung mit Vergleichen zu Arbeiten und Ergebnissen anderer Forschergruppen weltweit, zunächst einige theoretische Grundlagen zur Berechnung der spektralen Reflektivität und Transmission von beliebigen optischen Schichtanordnungen aufgezeigt werden. Auß erdem wird ein kurzer theoretischer Ü berblick zu wichtigen Eigenschaften von Fabry-Perot-Filtern sowie der Möglichkeit einer mikromechanischen Durchstimmbarkeit gegeben. Daran anschließ end folgt ein Kapitel, welches sich den grundlegenden technologischen Aspekten der Herstellung von luftspaltbasierenden Filtern widmet. Es wird ein Zusammenhang zu wichtigen Referenzarbeiten hergestellt, auf denen diverse Weiterentwicklungen dieser Arbeit basieren. Die beiden folgenden Kapitel erläutern dann ausführlich das Design, die Herstellung und die Charakterisierung der beiden oben erwähnten Filtervarianten. Abgesehen von der vorangehenden Epitaxie von InP / GaInAs Schichten, ist die Herstellung der InP / Luftspaltfilter komplett im Institut durchgeführt worden. Die Herstellungsschritte sind ausführlich in der Arbeit erläutert, wobei ein Schwerpunktthema das trockenchemische Ä tzen von InP sowie GaInAs, welches als Opferschichtmaterial für die Herstellung der Luftspalte genutzt wurde, behandelt. Im Verlauf der wissenschaftlichen Arbeit konnten sehr wichtige technische Verbesserungen entwickelt und eingesetzt werden, welche zu einer effizienteren technologischen Herstellung der Filter führten und in der vorliegenden Niederschrift ausführlich dokumentiert sind. Die hergestellten, für einen Einsatz in der optischen Telekommunikation entworfenen, elektrostatisch aktuierbaren Filter sind aus zwei luftspaltbasierenden Braggspiegeln aufgebaut, welche wiederum jeweils 3 InP-Schichten von (je nach Design) 357nm bzw. 367nm Dicke aufweisen. Die Filter bestehen aus im definierten Abstand parallel übereinander angeordneten Membranen, die über Verbindungsbrücken unterschiedlicher Anzahl und Länge an Haltepfosten befestigt sind. Da die mit 357nm bzw. 367nm vergleichsweise sehr dünnen Schichten freitragende Konstrukte mit bis zu 140 nm Länge bilden, aber trotzdem Positionsgenauigkeiten im nm-Bereich einhalten müssen, handelt es sich hierbei um sehr anspruchsvolle mikromechanische Bauelemente. Um den Einfluss der zahlreichen geometrischen Strukturparameter studieren zu können, wurden verschiedene laterale Filterdesigns implementiert. Mit den realisierten Filter konnte ein enorm weiter spektraler Abstimmbereich erzielt werden. Je nach lateralem Design wurden internationale Bestwerte für durchstimmbare Fabry-Perot-Filter von mehr als 140nm erreicht. Die Abstimmung konnte dabei kontinuierlich mit einer angelegten Spannung von nur wenigen Volt durchgeführt werden. Im Vergleich zu früher berichteten Ergebnissen konnten damit sowohl die Wellenlängenabstimmung als auch die dafür benötigte Abstimmungsspannung signifikant verbessert werden. Durch den hohen Brechungsindexkontrast und die geringe Schichtdicke zeigen die Filter ein vorteilhaftes, extrem weites Stopband in der Größ enordnung um 550nm. Die gewählten, sehr kurzen Kavitätslängen ermöglichen einen freien Spektralbereich des Filters welcher ebenfalls in diesen Größ enordnungen liegt, so dass ein weiter spektraler Einsatzbereich ermöglicht wird. Während der Arbeit zeigte sich, dass Verspannungen in den freitragenden InPSchichten die Funktionsweise der mikrooptischen Filter stark beeinflussen bzw. behindern. Insbesondere eine Unterätzung der Haltepfosten und die daraus resultierende Verbiegung der Ecken an denen sich die Verbindungsbrücken befinden, führte zu enormen vertikalen Membranverschiebungen, welche die Filtereigenschaften verändern. Um optimale Ergebnisse zu erreichen, muss eine weitere Verbesserung der Epitaxie erfolgen. Jedoch konnten durch den zusätzlichen Einsatz einer speziellen Schutzmaske die Unterätzung der Haltepfosten und damit starke vertikale Verformungen reduziert werden. Die aus der Verspannung resultierenden Verformungen und die Reaktion einzelner freistehender InP Schichten auf eine angelegte Gleich- oder Wechselspannung wurde detailliert untersucht. Mittels Weisslichtinterferometrie wurden lateral identische Strukturen verglichen, die aus unterschiedlich dicken InP-Schichten (357nm bzw. 1065nm) bestehen. Einen weiteren Hauptteil der Arbeit stellen Siliziumnitrid / Luftspaltfilter dar, welche auf einem neuen, im Rahmen dieser Dissertation entwickelten, technologischen Ansatz basieren. Die Filter bestehen aus zwei Braggspiegeln, die jeweils aus fünf 590nm dicken, freistehenden Siliziumnitridschichten aufgebaut sind und einem Abstand von 390nm untereinander aufweisen. Die Filter wurden auf Glassubstraten hergestellt. Der Herstellungsprozess ist jedoch auch mit vielen anderen Materialien oder Prozessen kompatibel, so dass z.B. eine Integration mit anderen Bauelemente relativ leicht möglich ist. Die Prozesse dieser ebenfalls oberflächenmikromechanisch hergestellten Filter wurden konsequent auf niedrige Herstellungskosten optimiert. Als Opferschichtmaterial wurde hier amorph abgeschiedenes Silizium verwendet. Der Herstellungsprozess beinhaltet die Abscheidung verspannungsoptimierter Schichten (Silizium und Siliziumnitrid) mittels PECVD, die laterale Strukturierung per reaktiven Ionenätzen mit den Gasen SF6 / CHF3 / Ar sowie Fotolack als Maske, die nasschemische Unterätzung der Opferschichten mittels KOH und das Kritisch-Punkt-Trocken der Proben. Die Ergebnisse der optischen Charakterisierung der Filter zeigen eine hohe Ü bereinstimmung zwischen den experimentell ermittelten Daten und den korrespondierenden theoretischen Modellrechnungen. Weisslichtinterferometermessungen der freigeätzten Strukturen zeigen ebene Filterschichten und bestätigen die hohe vertikale Positioniergenauigkeit, die mit diesem technologischen Ansatz erreicht werden kann.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Das neuronale Adhäsionsmolekül L1 wird neben den Zellen des Nervensystems auf vielen humanen Tumoren exprimiert und ist dort mit einer schlechten Prognose für die betroffenen Patienten assoziiert. Zusätzlich zu seiner Funktion als Oberflächenmolekül kann L1 durch membranproximale Spaltung in eine lösliche Form überführt werden. In der vorliegenden Arbeit wurde der Einfluss von L1 auf die Motilität von Tumorzellen untersucht. Lösliches L1 aus Asziten führte zu einer Integrin-vermittelten Zellmigration auf EZM-Substraten. Derselbe Effekt wurde durch Überexpression von L1 in Tumorlinien beobachtet. Weiterhin führt die L1-Expression zu einer erhöhten Invasion, einem verstärkten Tumorwachstum in NOD/SCID Mäusen und zur konstitutiven Aktivierung der MAPK ERK1/2. Eine Mutation in der zytoplasmatischen Domäne von hL1 (Thr1247Ala/Ser1248Ala)(hL1mut) führte hingegen zu einer Blockade dieser Funktionen. Dies weist daraufhin, dass nicht nur lösliches L1, sondern auch die zytoplasmatische Domäne von L1 funktionell aktiv ist. Im zweiten Teil der Arbeit wurde der Mechanismus, der L1-vermittelten Signaltransduktion untersucht. Die zytoplasmatische Domäne von L1 gelangt nach sequenzieller Proteolyse durch ADAM und Presenilin-abhängiger γ-Sekretase Spaltung in den Zellkern. Diese Translokation im Zusammenspiel mit der Aktivierung der MAPK ERK1/2 durch L1-Expression führt zu einer L1-abhängigen Genregulation. Die zytoplasmatische Domäne von hL1mut konnte ebenfalls im Zellkern detektiert werden, vermittelte jedoch keine Genregulation und unterdrückte die ERK1/2 Phosphorylierung. Die L1-abhängige Induktion von ERK1/2-abhängigen Genen wie Cathepsin B, β3 Integrin und IER 3 war in Zellen der L1-Mutante unterdrückt. Die Expression des Retinsäure-bindenden Proteins CRABP-II, welches in hL1 Zellen supprimiert wird, wurde in der L1-Mutante nicht verändert. Weitere biochemische Untersuchungen zeigen, dass die zytoplasmatische Domäne von L1 Komplexe mit Transkriptionsfaktoren bilden kann, die an Promoterregionen binden können. Die dargestellten Ergebnisse belegen, dass L1-Expression in Tumoren an drei Funktionen beteiligt ist; (i) L1 erhöht Zellmotilität, (ii) fördert Tumorprogression durch Hochregulation von pro-invasiven und proliferationsfördernden Genen nach Translokation in den Nukleus und (iii) schützt die Zellen mittels Regulation pro- bzw. anti-apoptotischer Gene vor Apoptose. Die mutierte Phosphorylierungsstelle im L1-Molekül ist essentiell für diese Prozesse. Die Anwendung neuer Therapien für Patienten mit L1-positiven Karzinomen kann mit Hinblick auf die guten Erfolge der Antikörper-basierenden Therapie mit dem mAk L1-11A diskutiert werden.
Resumo:
Gerade männliche Jugendliche nutzen in ihrer Pubertät und Adoleszenz zu einer gelingenden Gestaltung ihres Alltags und zur Ausbildung ihrer Identität zahlreiche Erscheinungsformen des Fantasy-Rollenspielens. In einem Prozess von Aneignung und Entäußerung integrieren dabei die Jugendlichen das überaus reiche multimediale Angebot, welches die Spiele bieten, in ihre Alltagsgestaltung, indem sie sich daraus spezifische Medien-, Text- und Ereignisarrangements bauen. Diese dienen einerseits der sozialen Integration und Distinktion, andererseits der Präsentation ihrer Identitätsentwürfe sich und anderen. Die Jugendlichen schaffen sich mittels dieser spezifischen Medien-, Text- und Ereignisarrangements eine in weiten Teilen von ihnen selbst bestimmte Welt, in der sie ihre Phantasie wie Kreativität mit großer Intensität, ja Obsession, innerhalb integrativer und solidarischer Interaktionsformen selbststeuernd und professionell ausleben. Diese Medien-, Text- und Ereignisarrangements zeigen Angebots- und Nutzungsformen, die sich nach einem medienkommunikativen Aneignungs- und Entäußerungsmodell in der Tradition der Cultural Studies (Stuart Hall) beschreiben lassen. Die Langzeitbeobachtung der Jugendlichen zeigt, dass sie alltagspragmatische Kulturtechniken zur selbstbestimmten Gestaltung von Alltag entwickeln: zunächst eine Strukturierung ihrer kognitiven, affektiven und pragmatischen Interaktion nach Kriterien erfolgreicher intrinsischer Interaktion, mit dem Ziel derer Perpetuierung im Flow-Erleben (Mihalyi Csikszentmihalyi), dann eine Ästhetisierung von Alltagswirklichkeit mittels kollektiver Fiktionalisierung in der Tradition des Collective Story Telling (Janet H. Murray). Diese Kulturtechniken stellen vor dem Hintergrund der Enkodierung und Dekodierung sozialer Codes spezifische Adaptionen von Prozessen der Bedeutungszuweisung und Subjekt- bzw. Identitätskonstitution dar. Die sie evozierenden und mit ihnen korrespondierenden handlungsleitenden Themen der Jugendlichen sind der Wunsch nach Rekonstitution von Gesamtheit in einer sich fragmentarisierenden Wirklichkeit, die Affirmation von Selbstbestimmung- und Autonomieerfahrungen, das Erleben von Reintegration und Solidarität für das sich dissoziiert erfahrende Individuum. Das Handeln der Jugendlichen basiert damit auf dem momentan dominanten Prozess einer Individualisierung von Lebenswelt unter den Bedingungen von Reflexivität und Erlebnisrationalität in der postmodernen Gesellschaft. Mit ihren Versuchen selbstbestimmter Gestaltung folgen sie dem aktuellen gesellschaftlichen Auftrag einer weitgehend in eigener Regie vorzunehmenden Lokalisierung dieses Prozesses. Zunehmend tritt diese von den Jugendlichen selbstgesteuerte Sozialisation neben die traditionell heteronome Sozialisation von gesellschaftlichen Instituten wie etwa die von Schule. Damit wird das Handeln der Jugendlichen zu einer Herausforderung an Pädagogik und Schule. Schule muss, wenn sie ihrem eigentlichen Auftrag von Förderung gerecht werden will, eine Sensibilität für diese Eigenständigkeit von Jugendlichen entwickeln und in der Beobachtung ihres Handelns didaktische Innovationen für Lehren und Lernen entwickeln. Im Mittelpunkt steht dabei die Wiederentdeckung des pädagogischen Dialogs, besonders aber die Entwicklung einer individualisierten Lernkultur und die Förderung jugendlicher Gestaltungskompetenzen, welche von deren alltagsästhetischen Erfahrungen und Kompetenzen im Umgang mit multimedialen Kulturprodukten ausgeht. Schule kann und muss für diese Prozesse selbstgesteuerten Lernens angemessene pädagogische Räume bereitstellen, in denen die Jugendlichen innerhalb eines geschützten Kontextes in der Auseinandersetzung mit eigenen wie fremden Entwürfen ihre Identität entwickeln können.
Resumo:
Im Dezember 1997 veröffentlichte die Frankfurter Allgemeine Zeitung den als Rechtsgutachten abgefassten Beitrag des Heidelberger Juristen Friedrich-Christian Schoeder (Schroeder 1997). Die Frage, die Autor und Zeitung eher spielerisch als aus konkretem Anlass umtrieb, galt dem rechtlichen Status eines Menschen, dessen Kopf auf den Körper eines anderen Menschen transplantiert wurde. Medizinisch waren und sind solche Eingriffe noch nicht durchführbar, aber immerhin schienen sie für den Autor und die Zeitung eine Aktualität zu besitzen. Auch bei folgenden Auseinandersetzungen, die in den Medien um die Konsequenzen der medizinisch-technischen Entwicklung geführt wurden, geraten Bewusstsein, Subjektivität und Körper zum statischem Abbild des Gegenwärtigen, sie werden nicht als Substrat historischer Prozesse begriffen. Ohne den Begriff der Vergangenheit plaudern sich eine Vielzahl Autoren durch die Zukunft. In dieser muss auch der auf einen fremden Körper übertragene Kopf als Rechtssubjekt verwaltet werden. Aber wie verändert sich der Mensch, durch eine medizinische Maßnahme vervollständigt, die dauerhaft seine Körpergrenze verschiebt? Die Transplantationsmedizin ist bei der Auseinandersetzung um Subjektivität nicht nur dann von besonderem Interesse, wenn ein Kopf auf, sondern auch, wenn ein gespendetes Organ in einen fremden Körper verpflanzt wird. Die Trennung von Fremd und Eigen, Außen und Innen ist eng mit dem Zivilisationsprozess und der Subjektwerdung verbunden. Was körperlich durch medizinische Maßnahmen verschoben wird, die Grenze zwischen Außen und Innen, ist die Bedingung der Möglichkeit von Subjektivität. Der Titel dieser Arbeit, Der Prothesengott, verweist auf die individuellen und zivilisatorischen Leistungen, die vollbracht werden mussten, um mit Fug und Recht „Ich“ sagen zu können. Der Begriff Prothesengott ist der Freudschen Schrift Das Unbehagen in der Kultur entnommen. Freud schreibt dort vom Ideal des Prothesengottes und das erste Kapitel der hier vorgelegten Arbeit ist der Entfaltung dieses Ideals gewidmet. Dieses Begriffspaar hat mehr Bedeutungsnuancen, als Freud an Ort und Stelle entwickelte. Es umfasst die Bedeutung von Mythos und Gott als Prothesen, als Ideale, die den Menschen vervollständigten. Aber auch die Bedeutung von Theorien, Ideen, schlicht Idealen als Prothesen Gottes ist angesprochen, und damit der Versuch, den Verlust Gottes auszugleichen. Und zu guter Letzt benennt es das Ideal eines Gottes durch Prothesen, die Apotheose, wie Freud sie meinte: Als Vergötzung der Prothesen, mit denen der Mensch sich vervollständigt, um sich nach dem Tod Gottes selber ein Versprechen auf Erlösung sein zu können. Mit dieser Entfaltung soll die Zivilisation wie die individuelle Entwicklung als ein Prozess rekonstruiert werden, in dem Subjektivität gleichzeitig hervorgebracht und beschädigt wird. Diese Dialektik von Zivilisation und Barbarisierung findet ihren vorläufigen Höhepunkt im Fortschreiten der technischen Mittel unserer Zeit. Zur empirischen Fassung der historisch vorfindlichen Subjektivität wurden Patienten der Transplantationseinheit der Universität Leipzig gebeten, in den ersten drei Monaten nach der Operation Tagebücher auszufüllen. Diese Tagebücher wurden mit statistischen und hermeneutischen Methoden ausgewertet. Die Transplantationserfahrung offenbart sich in den Tagebüchern zwar als besondere, aber in eine Vielzahl von Techniken der Körpergestaltung eingebettete Maßnahme. Neben einer kritischen Würdigung des methodischen Vorgehens wird im fünften Kapitel die Transplantationserfahrung in den Kontext anderer Forschungsergebnisse zur Gestaltung des Körpers gestellt. Deren kritische Diskussion und die Transplantationserfahrungen bieten einen Ausblick darauf, was Eingedenken der Natur im Subjekt heute bedeuten kann.
Resumo:
Landwirtschaft spielt eine zentrale Rolle im Erdsystem. Sie trägt durch die Emission von CO2, CH4 und N2O zum Treibhauseffekt bei, kann Bodendegradation und Eutrophierung verursachen, regionale Wasserkreisläufe verändern und wird außerdem stark vom Klimawandel betroffen sein. Da all diese Prozesse durch die zugrunde liegenden Nährstoff- und Wasserflüsse eng miteinander verknüpft sind, sollten sie in einem konsistenten Modellansatz betrachtet werden. Dennoch haben Datenmangel und ungenügendes Prozessverständnis dies bis vor kurzem auf der globalen Skala verhindert. In dieser Arbeit wird die erste Version eines solchen konsistenten globalen Modellansatzes präsentiert, wobei der Schwerpunkt auf der Simulation landwirtschaftlicher Erträge und den resultierenden N2O-Emissionen liegt. Der Grund für diese Schwerpunktsetzung liegt darin, dass die korrekte Abbildung des Pflanzenwachstums eine essentielle Voraussetzung für die Simulation aller anderen Prozesse ist. Des weiteren sind aktuelle und potentielle landwirtschaftliche Erträge wichtige treibende Kräfte für Landnutzungsänderungen und werden stark vom Klimawandel betroffen sein. Den zweiten Schwerpunkt bildet die Abschätzung landwirtschaftlicher N2O-Emissionen, da bislang kein prozessbasiertes N2O-Modell auf der globalen Skala eingesetzt wurde. Als Grundlage für die globale Modellierung wurde das bestehende Agrarökosystemmodell Daycent gewählt. Neben der Schaffung der Simulationsumgebung wurden zunächst die benötigten globalen Datensätze für Bodenparameter, Klima und landwirtschaftliche Bewirtschaftung zusammengestellt. Da für Pflanzzeitpunkte bislang keine globale Datenbasis zur Verfügung steht, und diese sich mit dem Klimawandel ändern werden, wurde eine Routine zur Berechnung von Pflanzzeitpunkten entwickelt. Die Ergebnisse zeigen eine gute Übereinstimmung mit Anbaukalendern der FAO, die für einige Feldfrüchte und Länder verfügbar sind. Danach wurde das Daycent-Modell für die Ertragsberechnung von Weizen, Reis, Mais, Soja, Hirse, Hülsenfrüchten, Kartoffel, Cassava und Baumwolle parametrisiert und kalibriert. Die Simulationsergebnisse zeigen, dass Daycent die wichtigsten Klima-, Boden- und Bewirtschaftungseffekte auf die Ertragsbildung korrekt abbildet. Berechnete Länderdurchschnitte stimmen gut mit Daten der FAO überein (R2 = 0.66 für Weizen, Reis und Mais; R2 = 0.32 für Soja), und räumliche Ertragsmuster entsprechen weitgehend der beobachteten Verteilung von Feldfrüchten und subnationalen Statistiken. Vor der Modellierung landwirtschaftlicher N2O-Emissionen mit dem Daycent-Modell stand eine statistische Analyse von N2O-und NO-Emissionsmessungen aus natürlichen und landwirtschaftlichen Ökosystemen. Die als signifikant identifizierten Parameter für N2O (Düngemenge, Bodenkohlenstoffgehalt, Boden-pH, Textur, Feldfrucht, Düngersorte) und NO (Düngemenge, Bodenstickstoffgehalt, Klima) entsprechen weitgehend den Ergebnissen einer früheren Analyse. Für Emissionen aus Böden unter natürlicher Vegetation, für die es bislang keine solche statistische Untersuchung gab, haben Bodenkohlenstoffgehalt, Boden-pH, Lagerungsdichte, Drainierung und Vegetationstyp einen signifikanten Einfluss auf die N2O-Emissionen, während NO-Emissionen signifikant von Bodenkohlenstoffgehalt und Vegetationstyp abhängen. Basierend auf den daraus entwickelten statistischen Modellen betragen die globalen Emissionen aus Ackerböden 3.3 Tg N/y für N2O, und 1.4 Tg N/y für NO. Solche statistischen Modelle sind nützlich, um Abschätzungen und Unsicherheitsbereiche von N2O- und NO-Emissionen basierend auf einer Vielzahl von Messungen zu berechnen. Die Dynamik des Bodenstickstoffs, insbesondere beeinflusst durch Pflanzenwachstum, Klimawandel und Landnutzungsänderung, kann allerdings nur durch die Anwendung von prozessorientierten Modellen berücksichtigt werden. Zur Modellierung von N2O-Emissionen mit dem Daycent-Modell wurde zunächst dessen Spurengasmodul durch eine detailliertere Berechnung von Nitrifikation und Denitrifikation und die Berücksichtigung von Frost-Auftau-Emissionen weiterentwickelt. Diese überarbeitete Modellversion wurde dann an N2O-Emissionsmessungen unter verschiedenen Klimaten und Feldfrüchten getestet. Sowohl die Dynamik als auch die Gesamtsummen der N2O-Emissionen werden befriedigend abgebildet, wobei die Modelleffizienz für monatliche Mittelwerte zwischen 0.1 und 0.66 für die meisten Standorte liegt. Basierend auf der überarbeiteten Modellversion wurden die N2O-Emissionen für die zuvor parametrisierten Feldfrüchte berechnet. Emissionsraten und feldfruchtspezifische Unterschiede stimmen weitgehend mit Literaturangaben überein. Düngemittelinduzierte Emissionen, die momentan vom IPCC mit 1.25 +/- 1% der eingesetzten Düngemenge abgeschätzt werden, reichen von 0.77% (Reis) bis 2.76% (Mais). Die Summe der berechneten Emissionen aus landwirtschaftlichen Böden beträgt für die Mitte der 1990er Jahre 2.1 Tg N2O-N/y, was mit den Abschätzungen aus anderen Studien übereinstimmt.
Resumo:
(1) Neuropeptid Y (NPY), einer der häufigsten peptidergen Neurotransmitter im zentralen und peripheren Nervensystem der Säuger, ist an der Steuerung zahlreicher physiologischer Prozesse beteiligt. Auch Amphibien weisen eine verstärkte NPY-Immunreaktivität im Zentralnervensystem auf. Im Hinblick auf bereits gewonnene Erkenntnisse sollte in der vorliegenden Arbeit eine Modulierbarkeit retino-tectaler Aktivität durch Neuropeptid Y an der chinesischen Rotbauchunke (Bombina orientalis) überprüft und erstmals mit Hilfe der 14[C]-2-Desoxiglukose-Methode (14C-2DG) (Sokoloff et al. 1977) quantitativ analysiert werden. Als Vergleichstier diente die Agakröte (Bufo marinus). Zur Darstellung eines möglichen Effektes auf das Tectum opticum wurde NPY lokal auf die tectale Oberfläche visuell stimulierter Rotbauchunken appliziert. Mit Hilfe der 14C-2DG-Methode und den daraus autoradiographisch ermittelten Daten konnten die zerebralen Aktivitäten visualisiert, quantitativ ausgewertet und miteinander verglichen werden. In einer weiteren Versuchsreihe wurde hinterfragt, welche inhibitorische Wirkung NPY entwickeln kann, wenn zuvor der retinale Input pharmakologisch durch systemische Gabe von Apomorphin (APO) signifikant erhöht wurde. (2) Die 14C-2DG-Methode erlaubt einen Blick in die funktionale Aktivität des Gehirns und ermöglicht es, regional ablaufende physiologische und biochemische Energiestoffwechselprozesse innerhalb des Gehirns quantitativ zu erfassen. Mit Hilfe der 14C-2DG-Methode werden die neuromodulatorischen Wirkungen von NPY kartiert und analysiert. (3) Versuchstiergruppe 1 – Bombina orientalis – unbehandelt Zur Beurteilung pharmakologischer Effekte durch NPY bzw. APO auf den Hirnmetabolismus war es zunächst erforderlich, die Gehirnaktivitäten pharmakologisch unbeeinflusster Tiere nach visueller Reizgabe zu untersuchen. Im Bereich des medialen Mesencephalon wurden die tectalen 14C-2DG-Konzentrationen über zehn Messreihen pro Einzeltier sowohl an der rechten als auch an der linken tectalen Hälfte auf Höhe des ventrolateralen Tectum opticum ermittelt. Beim rechts-links Vergleich zeigen sich gleich verteilte Strahlungsintensitäten. Basierend auf dieser Aussage konnte NPY unilateral auf die tectale Oberfläche aufgebracht und auf seine Wirkung geprüft werden. (4) Versuchstiergruppe 2 – Bombina orientalis – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche des Versuchstieres bewirkt, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Besonders in den oberen Schichten des Tectum opticum (Layer 9) zeigt die 14C-2DG-Methode qualitativ und quantitativ auswertbare Aktivitätsminderungen an. (5) Verhalten unter NPY: Durchschnittlich nach 10 min Versuchsdauer zeigt Bombina orientalis eine deutliche Abnahme in der Beutefangaktivität, die sich gegen Ende der Versuchszeit noch weiter reduziert. (6) Versuchstiergruppe 3 – Bombina orientalis – APO-Applikation Systemisch verabreichtes APO führt bei Bombina orientalis zu einer Verstärkung des retinalen Ausganges in die retino-tectalen Projektionsfelder. Die neuronalen Aktivitäten im Tectum opticum erhöhen sich unter dem Einfluss von APO im Durchschnitt um 40% im Vergleich zu APO-unbehandelten Tieren. (7) Verhalten unter APO: Bombina orientalis zeigt nach systemischer Applikation von APO keine verstärkten stereotypen Schnappreaktionen. Die Tiere reagieren ausschließlich mit Akinese, d.h. einem Ausfall gerichteter Lokomotionen und Orientierungsbewegungen. (8) Versuchstiergruppe 4 – Bombina orientalis – APO/NPY-Applikation Die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. Eindeutig niedrigere 14C-2DG-Aufnahmen sind in den oberen Schichten des Tectum opticum messbar, was die starke Wirkung von NPY quantitativ belegt. (9) Versuchstiergruppe 2 – Bufo marinus – NPY-Applikation Der unilaterale Einsatz von NPY auf die tectale Oberfläche von Bufo marinus zeigt ebenfalls, dass die unter dem Einfluss von NPY stehende tectale Hälfte, im Gegensatz zur unbehandelten tectalen Hälfte, einen deutlich niedrigeren 14C-2DG-Gebrauch aufweist. Bufo marinus zeigt aber aufgrund erweiterter Versuchsbedingungen (On-Off-Beleuchtungswechsel) anders verteilte Strahlungsintensitäten über dem Tectum-Querschnitt als Bombina orientalis. Stärkere [14C]-Akkumulationen zeigen sich in den tieferen zentralen Schichten des Tectum opticum. (10) Versuchstiergruppe 4 – Bufo marinus – APO/NPY-Applikation Auch die durch systemisch verabreichtes APO erhöhten retino-tectalen Aktivitäten im Tectum opticum von Bufo marinus werden unter dem unilateralen Einsatz von NPY deutlich abgeschwächt. (11) Die Ergebnisse der vorliegenden Arbeit leisten einen Beitrag zum Einfluss von NPY auf den retino-tectalen Informationstransfer bei Anuren im Sinne einer praetecto-tectalen inhibitorischen Modulation. Im Einklang mit früheren neuroanatomischen, immuncytochemischen und elektro-physiologischen Befunden liefern diese Ergebnisse erstmals ein biochemisches Korrelat auf der Basis des tectalen Energiestoffwechsels. (12) Es ist hervorzuheben, dass NPY-vermittelte inhibitorische Modulationen visuellen Informationstransfers in der vorliegenden Arbeit an Bombina orientalis nachgewiesen wurden, die phylogenetisch zu den ältesten Anuren (Anamnioten) gehört. Vergleichbares ist an verschiedenen Amnioten – einschließlich Primaten – beschrieben worden, was darauf hinweist, dass solche NPY-vermittelten Prozesse sich innerhalb der Tetrapoden relativ früh herausgebildet haben und in der Evolution konserviert worden sind.
Resumo:
Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.
Resumo:
Die Untersuchung betrifft die deutsche öffentliche Verwaltung. Untersucht werden soll, ob eine Intensivierung des Organisationslernens Möglichkeiten zur Optimierung von Strukturen und Prozessen der öffentlichen Verwaltung bietet, mithin das Organisationslernen eine zweckmäßige Option für die Bürokratie darstellt. Untersucht wird diese Frage am Beispiel der Kommunalverwaltungen, die im Vergleich zu staatlichen Verwaltungen über größere Handlungsspielräume verfügen. Die Kommunalverwaltungen befinden sich derzeit in einem Reformprozess, der 1993 von der Kommunalen Gemeinschaftsstelle für Verwaltungsvereinfachung (KGSt) durch die Vorlage eines "Neuen Steuerungsmodells" (NSM) angestoßen wurde. Am Beispiel dieses Reformprozesses soll mit der vorliegenden Untersuchung zunächst geprüft werden, ob unter Berücksichtigung von Verlauf und Ergebnis dieses Prozesses ein Bedarf an einer Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar ist. Sofern ein Bedarf zur Optimierung der Programme oder der Prozesse zur Verwaltungsentwicklung erkennbar wird, ist weiter zu fragen, ob dieser Bedarf durch das Organisationslernen befriedigt werden kann. Unter der Voraussetzung, dass die Modell-Vorstellung von der lernenden Organisation prinzipiell geeignet erscheint, in einem Entwicklungsprozess förderlich zu wirken, ist abschließend zu prüfen, ob dies auch unter der besonderen Aufgabenstellung und den besonderen Handlungsbedingungen der öffentlichen Verwaltung gelten könnte. Nach einer inzwischen mehr als 10-jährigen Einführungsphase wird ungeachtet einiger positiver Veränderungen die Gesamtbilanz zum NSM verhalten beurteilt. Im einzelnen lassen sich sowohl bezüglich des Modells problematische Lücken und Beschränkungen erkennen als auch Defizite in dem Implementationsverfahren. Insgesamt ist also die Frage nach dem Optimierungsbedarf zu bejahen. Die Intensivierung des Organisationslernens als Möglichkeit zur Optimierung von Implementationsprozessen kann nach dem Ergebnis der vorgenommenen Analysen grundsätzlich auch für die öffentliche Verwaltung in Betracht gezogen werden. Sowohl die grundlegenden Lernvoraussetzungen für das Organisationslernen als auch die grundlegenden verwaltungswissenschaftlich begründeten Anforderungen an die praktische Verwaltungsentwicklung erscheinen erfüllt. Zur Klärung der Frage, ob das Organisationslernen unter den besonderen Handlungsbedingungen der öffentlichen Verwaltung zur Optimierung des Verwaltungshandelns geeignet erscheint, wurde zusätzlich eine Expertenbefragung in ausgewählten Kommunalverwaltungen durchgeführt. Im Ergebnis dieser Befragung zeigt sich, dass die Vorstellung von einer lernenden Organisation zur Optimierung des Verwaltungshandelns durchaus auf Interesse stößt, jedoch die Einführungs- und Betriebsbedingungen zur Intensivierung des Organisationslernens noch nicht in allen Behörden gegeben sind und möglicherweise auch nicht in allen Behörden hergestellt werden können, so dass im Ergebnis das Organisationslernen als Option für die Bürokratie zwar Chancen verspricht, jedoch unter Berücksichtigung der Handlungsbedingungen in der öffentlichen Verwaltung differenziert zu beurteilen ist.
Gemeinsam selbständig. Eine Analyse kooperativen Handelns bei partnerschaftlichen Existenzgründungen
Resumo:
Im Zentrum der empirischen Arbeit steht einerseits eine besondere Form der Unternehmensgründung, andererseits eine besondere Form der Kooperation: die partnerschaftliche Existenzgründung. Das Forschungsvorhaben geht dem Ziel nach, Kooperationsprozesse in solchen unternehmerischen Partnerschaften zu explorieren. Um letztendlich eine praktisch nutzbare Grundlage für Maßnahmen zur Förderung beruflicher Selbständigkeit zu gewinnen, werden Merkmale und Rahmenbedingungen erfolgreicher partnerschaftlicher Existenzgründungen aufgezeigt. Die Empirie stützt sich auf qualitative Interviews mit Personen, die erfolgreich im Team ein Unternehmen gegründet haben und führen. In einem ersten Schritt werden anhand der Interviews konkrete alltägliche Kooperationsprozesse präzise beschrieben. Darauf aufbauend zeichnen tiefer gehende qualitative Analysen Entwicklungen auf einer abstrakteren Handlungsebene nach. Das Spektrum der Betrachtung umfasst neben individuellen Entwicklungen der Unternehmensgründer auch Prozesse auf der Teamebene sowie auf unternehmerischer Ebene. Zur Exploration der Handlungsprozesse werden die eigenen Ergebnisse durch ausgewählte theoretische Ansätze aus Kognitions- und Sozialpsychologie, aus soziologischer Handlungstheorie und Betriebswirtschaftslehre bereichert. Als relevant auf individueller Ebene erweisen sich insbesondere Prozesse der Identitätsentwicklung hin zu einer unternehmerisch-partnerschaftlichen Identität. Auf der Teamebene sind die Bewahrung und Überwindung von Eigensinn in der Interaktion sowie der Aufbau einer vertrauensvollen Beziehung zentral. Auf Unternehmensebene schließlich spielen Prozesse der Sinnfindung zwischen individuellen Erwerbsentwürfen und ökonomischen Strukturen, die Entstehung von Ordnung sowie Problemlösungsprozesse eine entscheidende Rolle. Insgesamt wird deutlich, dass der Weg in eine partnerschaftliche Selbständigkeit ein vielschichtiger Lernprozess ist, der aus der Praxis heraus entsteht, im Wesentlichen von den Gründern selbst organisiert und von gemeinsamen Reflexionen getragen wird. Diese Erkenntnisse stellen erste Ansatzpunkte dar zur Förderung beruflicher Selbständigkeit in Hochschule und im beruflichen Bildungswesen.