69 resultados para lange termijn strategieën


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bei der Stromversorgung handelte es sich bis zu seiner Liberalisierung 1998 um einen Wirtschaftszweig, der von Gebietsmonopolen auf allen Versorgungsstufen geprägt war. Diese Monopole gründeten im Wesentlichen auf dem natürlichen Monopol des Stromnetzes sowie auf der Bedeutung der Stromversorgung. Auch nach der Liberalisierung ist der Markt noch immer durch die etablierten ehemaligen Gebietsversorger geprägt, die nach wie vor über die Netze verfügen und zudem untereinander und mit der Politik gut vernetzt sind. Damit über das weiterhin bestehende natürliche Monopol bei den Stromnetzen keine wettbewerbswidrigen Interessen verfolgt werden können, bedarf die Transformation der Elektrizitätsversorgung in einen vorwiegend vom Wettbewerb geprägten Markt einiger Anpassungen. Einige Interessenskonflikte können bereits gelöst werden, indem die Marktstruktur an die neuen Bedingungen angepasst wird. Zum einen bedarf es einer Netzzugangsregelung, die dem Netzbetreiber möglichst geringe Missbrauchsmöglichkeiten offen lässt. Damit der Netzbetreiber überdies keine Interessen aus Aktivitäten in wettbewerbsgeprägten Märkten zulasten der Netznutzer verfolgt, ist zumindest der Betrieb des Netzes auf eigentumsrechtlich unabhängige Netzbetreiber zu übertragen. Diese Entflechtungsform sollte scheinbar bequemeren Lösungen, die sich leichter umsetzen lassen, vorgezogen werden. Auf lange Sicht werden die damit verbundenen höheren Regulierungskosten die Markttransformationskosten weit übersteigen. Das Problem des natürlichen Monopols beim Netz bedarf trotz allem einer dauernden Regulierung. Hier empfiehlt sich eine weitreichende ex-ante-Regulierung, in die auch Kriterien einfließen sollten, die den Netzbetreiber zu einem stabilen und sicheren Betrieb des Netzes veranlassen. Infolgedessen dürfte der Bedarf an einer ex-post-Kontrolle durch die Regulierungsinstitution entsprechend gering ausfallen. Die Regulierungsinstitution sollte hierbei nicht auf einige wenige Regulierungsinstrumente festgelegt werden. Die Gefahr der Anmaßung von Wissen, der Regulierungsinstitutionen wegen ihrer im Vergleich zu den Marktteilnehmern größeren Marktferne ausgesetzt sind, lässt sich durch die Akteursbeteiligung in der Regulierungsinstitution verringern: Die Akteure könnten innerhalb eines vorgegebenen Rahmens die Ausgestaltung der Netznutzungsregeln weitestgehend selbst bestimmen, die Aushandelungsmodalitäten hierfür müssen allerdings präzise festgelegt und die getroffenen Regelungen für alle Marktteilnehmer verbindlich sein. Diese Mischform zwischen staatlicher Rahmensetzung und Selbstregulierung nutzt die Regelungspotentiale des Staates und die Selbstorganisationsmöglichkeiten der relevanten Akteure gleichermaßen. Durch die Besetzung der Regulierungsinstitution mit Vertretern der relevanten Akteure wird zudem ein großes Maß an spezifischem Branchenwissen in sie hineingetragen, insbesondere da die vertikal integrierten Elektrizitätsversorgungsunternehmen nach der eigentumsrechtlichen Entflechtung zumindest noch anfangs über einen großen Teil der Informationen über den Netzbetrieb verfügen. Damit wäre das Informationsproblem, das staatlichen Regulierungsstellen anhaftet, geringer. Durch die Interessenlage der Mitglieder der Regulierungsinstitution dürfte sie auf den Netzbetreiber den starken Effizienzdruck ausüben. Der Netzbetreiber sollte hingegen ein Unternehmen im vollständigen öffentlichen Eigentum sein. Damit kann eine Unterwanderung durch Anteilserwerb verhindert und das Netz leichter im Sinne gemeinwirtschaftlicher Verpflichtungen betrieben werden. Dies wäre überdies wegen der Legitimationsprobleme, die mit einer weitgehend unabhängigen, mit umfangreichen und nicht präzise abgegrenzten Eingriffbefugnissen versehenen Regulierungsinstitution einhergehen, vorteilhaft, wenn nicht gar geboten. Damit sind große Teile der Grundrechtsprobleme, die mit der Regulierungsinstitution, ihrer Zusammensetzung und ihren Kompetenzen zusammenhängen, irrelevant.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zum Umgang mit der Globalisierung besteht eine Vielfalt von Konzepten. Der Übersichtsartikel unseres Autors in der Juli-Ausgabe der Kommune, "Globalisierung - eine Zwischenbilanz", schloss mit einer sowohl nach Strategie als auch nach Regelungsebene differenzierten Typologie der Reaktionen auf die Globalisierung. Die Strategien waren unterteilt nach Versuchen, Globalisierungstendenzen zu ignorieren, sich ihnen gegenüber abzuschotten, sich ihnen anzupassen und schließlich in Bemühungen, die Rahmenbedingungen zu ändern. Die Regelungsebenen reichten vom Stadtteil bis hin zu globalen Abkommen. In dem Vorliegenden Beitrag möchte ich die Konzepte vorstellen, die auf eine Änderung der Rahmenbedingungen der Globalisierung auf globaler Ebene abzielen. Solche Konzepte erfreuen sich seit einigen Jahren unter dem Schlagwort "Global Governance" wachsender Beliebtheit, und zwar sowohl in der Politik als auch in akademischen Kreisen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Vorstellungen einer Rechtsordnung für die Informationsgesellschaft waren lange Zeit von weiten Freiheitsräumen geprägt. Staat und Recht waren in diesen Vorstellungen an den Rand gedrängt. Neue technische Grundlagen sollten auch neue Formen des Zusammenlebens ermöglichen. Die rasanten Veränderungen in den Produktionsmitteln und Produktivkräften weckten Visionen über veränderte Produktionsverhältnisse und Kooperationsbeziehungen. Frühere Analysen und Entwürfe zur Regulierung der Informationsgesellschaft (I.) sollen im Folgenden einem Review unterworfen werden (II.), auf dem aufbauend künftige Handlungsmöglichkeiten erörtert werden sollen (III.).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Anteil dezentraler eingebetteter Systeme steigt in zahlreichen Andwendungsfeldern, wie der Kfz-Elektronik oder der Anlagenautomatisierung [ScZu03]. Zudem steigen die Anforderungen and die Flexibilität und den Funktionsumfang moderner automatisierungs-technischer Systeme. Der Einsatz agentenorientierter Methoden ist diesbezüglich ein geeigneter Ansatz diesen Anforderungen gerecht zu werden [WGU03]. Mit Agenten können flexible, anpassungsfähige Softwaresysteme entwickelt werden, welche die Verteilung von Informationen, Aufgaben, Ressourcen oder Entscheidungsprozessen der realen Problemstellung im Softwaresystem widerspiegeln. Es ist somit möglich, die gewünschte Flexibilität des Systems, bezüglich der Struktur oder des Verhaltens gezielt zu entwerfen. Nachteilig ist jedoch der Indeterminismus des Verhaltens des Gesamtsystems, der sich aufgrund von schwer vorhersagbaren Interaktionen ergibt [Jen00]. Dem gegenüber stehen statische Softwaresysteme, welche zwar einen hohen Determinismus aufweisen aber wenig flexibel in Bezug auf Änderungen der Struktur des Systems oder des Ablaufs des realen Prozesses sind. Mit der steigenden Komplexität der Systeme ist allerdings selbst mit einem statischen Entwurf die Vorhersagbarkeit immer weniger zu gewährleisten. Die Zahl der möglichen Zustände einer Anlage wird mit der Berücksichtigung von allen möglichen Fehlern, Ausfällen und externen Einflüssen (dynamische Umgebung) so groß, daß diese mit vertretbarem Aufwand kaum noch erfassbar sind und somit auch nicht behandelt werden können. Das von der DFG geförderten Projekt AVE [AVE05], welches in Kooperation mit dem Institut für Automatisierungs- und Softwaretechnik der Universität Stuttgart bearbeitet wird, beschäftigt sich in diesem Kontext mit dem Konflikt, die Vorteile der Flexibilität und Anpassungsfähigkeit von agentenorientierter Software mit den spezifischen Anforderungen der Domäne der Echtzeitsysteme, wie Zeit- und Verlässlichkeitsanforderungen, zu verknüpfen. In einer detaillierten Analyse dieser Anforderungen wurde untersucht, wie die Eigenschaften der Anpassungsfähigkeit und Flexibilität prinzipiell die Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften beeinflussen und wie umgekehrt Anforderungen an Echtzeit- und Verlässlichkeitseigenschaften die Anpassungsfähigkeit und Flexibilität beschränken können. Aufbauend auf diesen Erkenntnissen werden Methoden und Konzepte für den Entwurf und die Implementierung von Agentensystemen auf gängiger Automatisierungshardware, insbesondere Speicher Programmierbare Steuerungen (SPS), entwickelt. In diesem Rahmen wird ein Konzept für die Modellierung von Sicherheit in Agentensystemen vorgestellt, welches insbesondere den modularen Charakter von Agenten berücksichtigt. Kernaspekt ist es, dem Entwickler einen Rahmen vorzugeben, der ihn dabei unterstützt ein möglichst lückenloses Sicherheitskonzept zu erstellen und ihm dabei genug Freiheiten lässt den Aufwand für die Strategien zur Fehlererkennung, Fehlerdiagnose und Fehlerbehandlung je nach Anforderung für jedes Modul individuell festzulegen. Desweiteren ist besonderer Wert darauf gelegt worden, dass die verwendeten Darstellungen und Diagramme aus der Domäne stammen und eine gute Vorlage für die spätere Implementierung auf automatisierungstechnischer Hardware bieten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im ersten Kapitel dieser Arbeit, dem theoretischen Rahmen, erhalten die Ergebnisse der Fernsehprogrammanalyse ihre theoretische Grundlage. Anhand von Beispielen aus der alltäglichen Mediennutzung von Kindern werden die in der Einleitung entfalteten Annahmen über Orientierungsbedürfnisse von Kindern nochmals aufgegriffen. Diese Orientierungsbedürfnisse werden als Selbstschutzbedürfnisse definiert und es werden Strategien aufgezeigt, die Kinder entwickeln, um diesen Selbstschutz aufrecht zu erhalten. Die Kompetenzen, die Kinder im Umgang mit Medien in ihrem privaten Alltag entwickelt haben, spielen dabei eine Rolle, aber auch die Fähigkeit, vorgegebene Strukturen der Medien und im Umgang mit ihnen zu durchschauen, zu reflektieren und gezielt für ihre eigenen Bedürfnisse einzusetzen. Als Vertreter eines pädagogischen Verständnisses von Medienkompetenz, das Mediennutzer als vor allem im gesellschaftlichen Kontext handlungsfähig denkt, wird Dieter Baacke im zweiten Theorieteil angeführt. Seine vier Dimensionen von Medienkompetenz bildeten die Ausgangsposition für die qualitative Fernsehprogrammanalyse. Unter dem Vorzeichen kultureller Handlungsfähigkeit wird im dritten Teil der Theorie der Versuch unternommen, den theoretischen Rahmen für die Analyse von Programmangeboten abzustecken, die „anders“ sind als andere. Wesentlich dabei ist der Gedanke, sich mit Mitteln der Dekonstruktion und Eigeninterpretation durchschaubar zu machen. Solche Angebote können als Chance für Mediennutzer begriffen werden, Differenzerfahrungen fruchtbar für sich und andere zu gestalten und zu nutzen. Die methodische Vorgehensweise bei der qualitativen Fernsehprogrammanalyse und Operationalisierung der Fragestellung sind in Kapitel zwei beschrieben. Ausgehend von dem Versuch, Dieter Baackes vier Dimensionen von Medienkompetenz zur Operationalisierung der Fragestellung heranzuziehen, wurde während des Zeitraums von zwei Jahren versucht, „Medienkompetenz“ als kodierbare Variable zu definieren und Sendungen qualitativ darauf zu untersuchen, ob sie Elemente enthalten, die Kinder dabei unterstützen, das Fernsehprogrammangebot und andere Medien zu ordnen und zu (er)klären und es den Zuschauern ermöglichen, darin zu manövrieren. Das Datenmaterial zu dieser Untersuchung stammt aus dem Forschungsprojekt „Jährliche Bestandsaufnahme zum Kinderfernsehen – qualitative und quantitative Fernsehprogrammanalyse in der Sicht der Kinder“ der Medienpädagogik der Universität Kassel. In mehreren Schritten wird verdeutlicht, wie die Kategorienbildung zur Einordnung der analysierten Programme und Programmelemente erfolgte. Die qualitative Fernsehprogrammanalyse teilt sich in zwei Kapitel: In Kapitel drei wird das exemplarische Programmangebot innerhalb der in Kapitel eins und zwei beschriebenen Kategorien „Regeln geben“, „Regeln anwenden“ und „Regeln brechen“ diskutiert. Die Analyse bezieht sich dabei auf das Fernsehprogrammangebot aus den Jahren 2000 bis 2003. Kapitel vier ist eine Auskopplung aus der ersten Kategorie des dritten Kapitels „Regeln geben“ und widmet sich den „orientierenden Elementen“, also Programmangeboten, die hinweisenden und werbenden Charakter haben. Solche Elemente, auch wenn sie aus Sicht der Programmanbieter für das Programm werben sollen, strukturieren das Fernsehprogramm zum einen intramedial, zum anderen bieten sie über diese inhaltlich und zeitlich strukturierenden Elemente den Zuschauer Bezugspunkte, die Zuschauer als Freiraum zum Navigieren nutzen können. Dieser Teil, das Programmangebot an orientierenden Elementen, wird in erster Linie aufgrund des Umfangs der Ausarbeitung in einem eigenen Kapitel behandelt. Zum anderen würde sich diese Trennung aber auch aufgrund der Tatsache rechtfertigen lassen, dass die Elemente, die als orientierenden Elemente bezeichnet werden, als intramediale Verweisstrukturen auf das Fernsehprogramm selbst verweisen, die in Kapitel drei behandelten Sendungen hingegen eher einen expliziten Alltagsbezug der Mediennutzer aufweisen. In Kapitel fünf, dem Fazit, werden die zentralen Ergebnisse der Fernsehprogrammanalyse zusammengefasst. In Bezug auf die Fragestellung „Fördert Fernsehen Medienkompetenz?“ und den theoretischen Rahmen, der dieser Arbeit zugrunde liegt, werden die Angebote des Fernsehen für Orientierungsbedürfnisse der Zuschauer betrachtet und mögliche Konsequenzen formuliert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Inspektion von Schule und Unterricht hat eine lange Tradition. Auf der Grundlage von Dokumenten aus der hessischen Schulgeschichte wird gezeigt, dass anfänglich der einzelne Lehrer, sein sittliches Verhalten und insbesondere sein Umgang mit der unterrichtlichen Disziplin im Zentrum der Beobachtungen stand. Das moderne Inspektionswesen nutzt demgegenüber das sozialwissenschaftliche Instrumentarium um anstelle punktueller Erfolgskontrollen schulische und unterrichtliche Entwicklungsprozesse in ihrer Komplexität zu beobachten, zu beschreiben und zu bewerten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Erforschung der Biologie maligner Tumoren beschränkte sich über lange Zeit auf die Suche nach genetischen Veränderungen. Dies hat sich in den letzten Jahren grundlegend geändert, da sich aus dem Wissen um die molekularen Veränderungen in den frühesten histomorphologisch erkennbaren Vorläuferläsionen neue Möglichkeiten zur Früherkennung und Prävention maligner Tumoren ergeben. Darüber hinaus gewinnen Aspekte zur Aufklärung des Krebs- und Progressionsrisikos zunehmend an Bedeutung. Voraussetzung für die Beantwortung dieser medizinischen und tumorbiologischen Fragestellungen war die Etablierung zielgerichteter molekularbiologischer und zytogenetischer Untersuchungsverfahren, die sich auch an Gewebeproben mit geringer Zellzahl, vor allem aus formalinfixierten, in Paraffin eingebetteten Geweben durchführen lassen. Dabei sollten, wenn möglich zeitgleich, multiple Gene in ein und derselben Zellprobe analysierbar sein. Da die individuelle Mutationsbeladung (mutation load) einzelner morphologisch gesunder Gewebe, als Ausdruck eines möglicherweise erhöhten Krebsrisikos, zumeist nur an Einzelzellen bestimmt werden kann, waren hier zur Untersuchung einzelner Gene weitergehend optimierte molekulargenetische Untersuchungstechniken erforderlich. In vorliegender sollten neue Biomarker mittels der DNA-Mikroarray-Technik identifiziert werden, die für eine Aussage über den Krankheitsverlauf verwendet werden können. Dabei wurden Expressionsprofile von normaler Kolonschleimhaut mit Schleimhaut von Kolonkarzinom Patienten verglichen. An diesem Beispiel sollte ferner geprüft werden, in wie weit sich formalin-fixiertes Gewebe (FFPE-Gewebe) derselben Patienten zur Expressionsdiagnostik eignen, um eventuelle retrospektive Studien durchführen zu können. Des Weiteren wurden, ebenfalls mittels DNA-Mikroarray-Technik, Gen-Expressionsprofile am Beispiel des Prostatakarzinoms erstellt, um einen Hinweis auf die Entstehung der Hormon-Therapieresistenz im Verlauf dieser Erkrankung zu erhalten. Es sollte geklärt werden, ob es z.B. Hinweise auf irreguläre Stoffwechselprozesse gibt, chromosomale Translokationsprozesse bzw. differenziell regulierte Gencluster, die einen Hinweis auf die Therapieresistenz liefern könnten. Ferner sollte methodisch analysiert werden, ob die Art der Gewebegewinnung, d.h. transurethrale Resektion im Vergleich zur chirurgischen Totalresektion der Prostata, vergleichbare Gen-Expressionsdaten liefert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Unternehmen konkurrieren in einem globalen Wettbewerb um den Transfer neuer Technologien in erfolgreiche Geschäftsmodelle. Aus diesem Grund stehen sie zunehmend der Herausforderung gegenüber, technologische Potenziale frühzeitig zu identifizieren, zu bewerten und Strategien für das Erschließen dieser Potenziale zu entwickeln. Dies ist zentraler Gegenstand der Vorausschau und Planung neuer Technologiepfade. In der vorliegenden Arbeit wird gemeinsam mit vier Unternehmen ein Leitfaden für die Strategiefindung, Entwicklung und Kommerzialisierung neu aufkommender Technologien entwickelt und angewendet. Den Ausgangspunkt der Arbeit bildet eine systematische Aufarbeitung des Forschungsstandes der Vorausschau und Planung neuer Technologien. Anschließend wird ein Beschreibungsmodell der Entstehung neuer Technologiepfade in technologiebasierten Innovationssystemen entwickelt. Auf Basis dieses Modells werden unterschiedliche Kategorien von Einflussfaktoren definiert, die als Analyserahmen für die neu entstehende Technologie dienen. Auf Basis der in der Literatur dokumentierten Abläufe, Teamstrukturen und Methoden (z.B. Roadmaps, Szenarien, Datenbankanalysen) wird ein sechsstufiger Ansatz für die Durchführung der Vorausschau und Planung neuer Technologiepfade konzipiert. Dieser Ansatz wird in vier Firmen für die Vorausschau und Planung neuer Technologien angewendet. Die untersuchten Technologien lassen sich den Feldern Biotechnologie, Nanotechnologie, Umwelttechnologie und Sensorik zuordnen. Zentrales Ergebnis der Arbeit ist ein entsprechend der Erfahrungen in den Unternehmen angepasster Ansatz für die Vorausschau und Planung neuer Technologiepfade. Dieser Ansatz ist in Abhängigkeit von Unternehmens- und Technologiecharakteristika für die weitere Anwendung konkretisiert. Dabei finden die zu beteiligenden Organisationseinheiten, zu betrachtende Einflussfaktoren sowie anwendbare Methoden besondere Berücksichtigung. Die Arbeit richtet sich an Personen in Führungspositionen im Bereich des strategischen Technologiemanagements sowie der Forschung und Entwicklung in Unternehmen, die Strategien für neu aufkommende Technologien entwickeln. Weiterhin sind die Ergebnisse der Arbeit für Wissenschaftler auf dem Gebiet der Methoden zur Vorausschau und Strategieentwicklung für neue Technologien von Interesse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation betrachtet institutionsinterne lokale (Critical-)Incident-Reporting-Systeme ((C)IRS) als eine Möglichkeit zum Lernen aus Fehlern und unerwünschten kritischen Ereignissen (sogenannte Incidents) im Krankenhaus. Die Notwendigkeit aus Incidents zu lernen, wird im Gesundheitswesen bereits seit den 1990er Jahren verstärkt diskutiert. Insbesondere risikoreichen Organisationen, in denen Incidents fatale Konsequenzen haben können, sollten umfassende Strategien erarbeiten, die sie vor Fehlern und unerwünschten Ereignissen schützen und diese als Lernpotenzial nutzen können. Dabei können lokale IRS als ein zentraler Bestandteil des Risikomanagements und freiwillige Dokumentationssysteme im Krankenhaus ein Teil dieser Strategie sein. Sie können eine Ausgangslage für die systematische Erfassung und Auswertung von individuellen Lerngelegenheiten und den Transfer zurück in die Organisation schaffen. Hierfür sind eine lernförderliche Gestaltung, Implementierung und Einbettung lokaler IRS eine wichtige Voraussetzung. Untersuchungen über geeignete lerntheoretisch fundierte und wirkungsvolle IRS-Modelle und empirische Daten fehlen bisher im deutschsprachigen Raum. Einen entsprechenden Beitrag leistet die vorliegende Fallstudie in einem Schweizer Universitätsspital (800 Betten, 6.100 Mitarbeitende). Zu diesem Zweck wurde zuerst ein Anforderungsprofil an lernförderliche IRS aus der Literatur abgeleitet. Dieses berücksichtigt zum einen literaturbasierte Kriterien für die Gestaltung und Nutzung aus der IRS-Literatur, zum anderen die aus der Erziehungswissenschaft und Arbeitspsychologie entlehnten Gestaltungsbedingungen und Erfolgskriterien an organisationales Lernen. Das Anforderungsprofil wurde in drei empirischen Teilstudien validiert und entsprechend adaptiert. In der ersten empirischen Teilstudie erfolgte eine Standortbestimmung der lokalen IRS. Die Erhebung erfolgte in vier Kliniken mittels Dokumentenanalyse, leitfadengestützter Interviews (N=18), sieben strukturierter Gruppendiskussionen und teilnehmender Beobachtungen über einen Zeitraum von 22 Monaten. Erfolgskritische IRS-Merkmale wurden identifiziert mit dem Ziel einer praxisgerechten lernförderlichen Systemgestaltung und Umsetzung von Incident Reporting unter Betrachtung von organisationalen Rahmenbedingungen, Lernpotenzialen und Barrieren. Die zweite Teilstudie untersuchte zwei Fallbeispiele organisationalen Lernens mittels Prozessbegleitung, welche zu einem verwechslungssicheren Design bei einem Medizinalprodukt und einer verbesserten Patientenidentifikation in Zusammenhang mit Blutentnahmen führten. Für das organisationale Lernen im Spital wurden dabei Chancen, Barrieren und Gestaltungsansätze abgeleitet, wie erwünschte Veränderungen und Lernen unter Nutzung von IRS initiiert werden können und dabei ein besseres Gesundheitsresultat erreicht werden kann. Die dritte Teilstudie überprüfte, inwiefern die Nutzung und Implementierung lokaler IRS mittels einer Mitarbeitervollbefragung zur Sicherheitskultur gefördert werden kann. Hierfür wurde eine positive Interaktion, zwischen einer starken Sicherheitskultur und der Bereitschaft ein IRS zu implementieren und Incidents zu berichten, angenommen. Zum Einsatz kam eine deutschsprachige Version des Hospital Survey on Patient Safety Culture (Patientensicherheitsklimainventar) mit einem Rücklauf von 46.8% (2.897 gültige Fragebogen). In 23 von 37 Kliniken führte laut einer Nachbefragung die Sicherheitskulturbefragung zum Implementierungsentscheid. Dies konnte durch Monitoring der IRS-Nutzung bestätigt werden. Erstmals liegen mit diesen Studien empirische Daten für eine wirkungsvolle und lernförderliche Gestaltung und Umsetzung von lokalen IRS am Beispiel einer Schweizer Gesundheitsorganisation vor. Die Ergebnisse der Arbeit zeigen Chancen und Barrieren für IRS als Berichts- und Lernsysteme im Krankenhaus auf. Als Resultat unsachgemäss gestalteter und implementierter IRS konnte dabei vor allem Lernverhinderung infolge IRS aufgezeigt werden. Blinder Aktionismus und eine fehlende Priorisierung von Patientensicherheit, unzureichende Kompetenzen, Qualifikationen und Ressourcen führten dabei zur Schaffung neuer Fehlerquellen mit einer Verstärkung des Lernens erster Ordnung. Eine lernförderliche Gestaltung und Unterhaltung der lokalen IRS, eingebettet in eine klinikumsweite Qualitäts- und Patientensicherheitsstrategie, erwiesen sich hingegen als wirkungsvoll im Sinne eines organisationalen Lernens und eines kontinuierlichen Verbesserungsprozesses. Patientensicherheitskulturbefragungen erwiesen sich zudem bei entsprechender Einbettung als effektives Instrument, um die Implementierung von IRS zu fördern. Zwölf Thesen zeigen in verdichteter Form auf, welche Gestaltungsprinzipien für IRS als Instrument des organisationalen Lernens im Rahmen des klinischen Risikomanagements und zur Förderung einer starken Patientensicherheitskultur zu berücksichtigen sind. Die Erkenntnisse aus den empirischen Studien münden in ein dialogorientiertes Rahmenmodell organisationalen Lernens unter Nutzung lokaler IRS. Die Arbeit zeigt damit zum einen Möglichkeiten für ein Lernen auf den verschiedenen Ebenen der Organisation auf und weist auf die Notwendigkeit einer (Re-)Strukturierung der aktuellen IRS-Diskussion hin.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Anlass der Untersuchung sind Verstärkungen von strukturwandel- und globalisierungsbedingten Wandlungen unter Schrumpfungs- und Stagnationsbedingungen. Denn Stagnations- und Schrumpfungstendenzen in einer Region sind selektiv, sie begünstigen über verschiedene Mechanismen Polarisierungen und Marginalisierungen: Die allgemeine Entspannung am Wohnungsmarkt hat erhöhte Mobilität und damit sozialräumliche Segregierungen und Polarisierungen der Wohnungsversorgung zur Folge. Leerstände und ausbleibende Investitionen begünstigen Polarisierungen von baulich-räumlichen Qualitäten. Diese beiden Entwicklungen überlagern sich im Stadtraum und verstärken sich gegenseitig. Dabei verbessert sich die Wohnungsversorgung in den benachteiligten Quartieren kaum, so die Ausgangshypothesen. Die Untersuchung fragt nach den Wirkungen des Nebeneinanders von Wachstums-, Stagnations- und Schrumpfungserscheinungen auf unterschiedlichen Maßstabsebenen, dem Zusammenspiel von sozialstrukturellen und qualitativen Veränderungen der baulich-räumlichen Gegebenheiten in den Quartieren sowie in innerstädtischer Differenzierung. Dabei interessieren besonders die Einflüsse eines regional entspannten Wohnungsmarktes und dessen Folgen für die Verwertungsstrategien im Wohnungsbestand auf Segregationsprozesse und die Wohnungsversorgung. Als Fallbeispiel der Untersuchung dient die Stadt Kassel. Der sozialräumliche Fokus liegt auf drei Typen benachteiligter Quartiere: Neben den in der aktuellen Diskussion zumeist betrachteten gründerzeitlichen Arbeiterquartieren und den Großsiedlungen der 1960/70er Jahre wurden auch die peripheren Geschosswohnungsbausiedlungen der 1950er/60er Jahre in die Untersuchung einbezogen, um den unterschiedlichen Rahmenbedingungen und Wirkungen in den Quartierstypen auf die Spur zu kommen und damit letztlich Grundlagen für stadtentwicklungspolitische Strategien zu erarbeiten. Die kleinräumigen Analysen von sozialräumlicher und baulich-räumlicher Struktur sowie zur Wohnungsversorgung deckten Parallelen und gegenläufige Entwicklungen zwischen den unterschiedlichen Quartierstypen auf; es ergaben sich verschiedene Anhaltspunkte zur Erhärtung der Ausgangsthesen. So wurde z.B. deutlich, dass sich unter den Marktbedingungen stagnierender Städte die Wohnflächenversorgung in den benachteiligten Quartieren kaum verbessert. Hierin zeigt sich ein entscheidender Unterschied zu stark schrumpfenden Städten, in denen sich die Versorgungslage (fast) durchgängig verbessert. Wohnungsmarktbarrieren wirken offensichtlich unter Stagnationsbedingungen für bestimmte Bevölkerungsgruppen weiter. Da sich ihre Wirkung aber für weitere Kreise der Bevölkerung abschwächt, verschärfen sich sozialräumliche Konzentrationen. Vor allem aber wurden Überlagerung und gegenseitige Verstärkung dieser sozialräumlichen mit baulich-räumlichen Polarisierungen deutlich, die vor allem aus stadträumlich konzentrierten Investitionen in den Gebäude- und Wohnungsbestand resultieren. Letztlich zeigt sich damit, dass regulierende Eingriffe nicht nur im Rahmen des Umbaus und der Erneuerung der Quartiere erforderlich sind, sondern insbesondere auch in den Wohnungsmarkt und dies auch bei entspannter regionaler Marktlage. Andernfalls ist weder eine angemessene Wohnungsversorgung aller Bevölkerungsgruppen noch der Zusammenhalt der Stadt(Gesellschaft) zu gewährleisten. Dabei ist die Stadtpolitik permanent mit der Gleichzeitigkeit von (wirtschaftlicher) Standortpolitik und sozialer Stadtentwicklung konfrontiert, die sie im Sinne einer nachhaltigen Entwicklung gegeneinander und miteinander abwägen muss.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ultrahochfester Beton (UHPC) ist ein sehr gefügedichter zementgebundener Werkstoff, der sich nicht nur durch eine hohe Druckfestigkeit, sondern auch durch einen hohen Widerstand gegen jede Form physikalischen oder chemischen Angriffs auszeichnet. Duktiles Nachbruchverhalten bei Druckversagen wird meist durch die Zugabe dünner kurzer Fasern erreicht. In Kombination mit konventioneller Betonstahl- oder Spannbewehrung ermöglicht UHPC die Ausführung sehr schlanker, weitgespannter Konstruktionen und eröffnet zugleich neue Anwendungsgebiete, wie zum Beispiel die flächenhafte Beschichtung von Brückendecks. Durch das Zusammenwirken kontinuierlicher Bewehrungselemente und diskontinuierlich verteilter kurzer Fasern ergeben sich unter Zugbeanspruchung Unterschiede gegenüber dem bekannten Stahl- und Spannbeton. In der vorliegenden Arbeit wird hierzu ein Modell entwickelt und durch eine umfangreiche Versuchsreihe abgesichert. Ausgangspunkt sind experimentelle und theoretische Untersuchungen zum Verbundverhalten von Stabstählen in einer UHPC-Matrix und zum Einfluss einer Faserzugabe auf das Reiß- und Zugtragverhalten von UHPC. Die Modellbildung für UHPC-Zugelemente mit gemischter Bewehrung aus Stabstahl und Fasern erfolgt auf der Grundlage der Vorgänge am diskreten Riss, die daher sehr ausführlich behandelt werden. Für den elastischen Verformungsbereich der Stabbewehrung (Gebrauchslastbereich) kann damit das Last-Verformungs-Verhalten für kombiniert bewehrte Bauteile mechanisch konsistent unter Berücksichtigung des bei UHPC bedeutsamen hohen Schwindmaßes abgebildet werden. Für die praktische Anwendung wird durch Vereinfachungen ein Näherungsverfahren abgeleitet. Sowohl die theoretischen als auch die experimentellen Untersuchungen bestätigen, dass der faserbewehrte UHPC bei Kombination mit kontinuierlichen Bewehrungselementen selbst kein verfestigendes Verhalten aufweisen muss, um insgesamt verfestigendes Verhalten und damit eine verteilte Rissbildung mit sehr keinen Rissbreiten und Rissabständen zu erzielen. Diese Beobachtungen können mit Hilfe der bisher zur Verfügung stehenden Modelle, die im Wesentlichen eine Superposition isoliert ermittelter Spannungs-Dehnungs-Beziehungen des Faserbetons und des reinen Stahls vorsehen, nicht nachvollzogen werden. Wie die eigenen Untersuchungen zeigen, kann durch ausreichend dimensionierte Stabstahlbewehrung zielgerichtet und ohne unwirtschaftlich hohe Fasergehalte ein gutmütiges Verhalten von UHPC auf Zug erreicht werden. Die sichere Begrenzung der Rissbreiten auf deutlich unter 0,1 mm gewährleistet zugleich die Dauerhaftigkeit auch bei ungünstigen Umgebungsbedingungen. Durch die Minimierung des Material- und Energieeinsatzes und die zu erwartende lange Nutzungsdauer lassen sich so im Sinne der Nachhaltigkeit optimierte Bauteile realisieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Simulation von Verlusten in Verbrennungsmotoren ermöglicht die Entwicklung optimierter Strategien für Verbrauchs- und Emissionskonzepte sowie die modellbasierte Betrachtung von Steuerungssystemen in Kraftfahrzeugen. Es gibt Simulationswerkzeuge, die die Verluste sehr detailliert auf der Basis von physikalischen Gesetzen nachbilden. Allerdings sind diese Werkzeuge nicht echtzeitfähig und können somit nicht in HiL-Umgebungen und Steuergeräten verwendet werden. Mit dem hier vorgestellten Ansatz können die Verluste in Verbrennungsmotoren unter Berücksichtigung der Einflüsse des variablen Ventiltriebs (VVT) nachgebildet werden. Das Gesamtmodell basiert auf einer physikalischen Grundstruktur mit integrierten datengetriebenen Teilmodellen. Durch den modularen Aufbau des Modells werden die Ladungswechsel- und Reibverluste in getrennten Teilmodellen berechnet, wobei die Reibverluste einer weiteren Unterteilung in Bauteilgruppen (Grundlager, Pleuellager, Kolbengruppe, etc.) unterliegen. Dieser modulare Aufbau ermöglicht kompakte Teilmodelle, die nur komponentenspezifische Eingänge besitzen. Die Modularität der Gesamtstruktur ermöglicht es, die Verluste einzelner Komponenten zu simulieren und zu bewerten. Durch die Einbeziehung von Konstruktionsdaten in den Modellerstellungsprozess können neben den prozessrelevanten Betriebsparametern auch Konstruktionsparameter bei der Simulation berücksichtigt werden. Hierdurch wird eine vereinfachte Skalierung der abgeleiteten Modelle ermöglicht. Die aus dem vorgestellten Ansatz abgeleiteten Verlustmodelle erfüllen den Aspekt der Echtzeitfähigkeit und können daher in HiL-Umgebungen verwendet werden.