87 resultados para Strategische Allianz
Resumo:
Jackson, Peter, and Joe Maiolo, 'Strategic intelligence, Counter-Intelligence and Alliance Diplomacy in Anglo-French relations before the Second World War', Military History (2006) 65(2) pp.417-461 RAE2008
Resumo:
Über die vergangenen Jahrzehnte hat sich die Interne Unternehmenskommunikation stets auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und ihre Modelle zur Motivation und Integration von Mitarbeitern den Veränderungen im strategischen und operativen Management angepasst. Ging es in den 70er und 80er Jahren dabei noch um das Herstellen von Mitarbeiterzufriedenheit, drehte sich seit den 90er Jahren in der Folge des zunehmenden globalen Wettbewerbs dann alles um das Mitarbeiterengagement.
Dieser Beitrag unternimmt einen Versuch, die Geschichte der Internen Unternehmens-kommunikation in Deutschland zu beleuchten. Dazu wird der Blickwinkel des Kommunikationsmanagements eingenommen, welches die Funktion der generellen Unternehmenskommunikation und damit auch die ihrer Teildisziplin für die Anspruchsgruppe der Mitarbeiter unter betriebswirt-schaftlichen Gesichtspunkten betrachtet und in den Wertschöpfungsprozess eines Unternehmens einordnet.
Es wird gezeigt, dass und wie sich die Interne Unternehmenskommunikation über die vergangenen Jahrzehnte auf durch ökonomische Herausforderungen bedingte organisationale Veränderungen eingestellt und diese unterstützt hat. Die jeweiligen Lösungsansätze der Internen Kommunikation dienten immer dazu, die Mitarbeiter zum Vorteil der Unternehmensführung in das Unternehmensgeschehen zu integrieren.
Und so, wie sich im Laufe der Zeit das strategische und operative Management veränderte, entwickelte sich auch die hier zu beschreibende Disziplin weiter.
Unterdessen ist der Wandel Normalität geworden, doch mehr als jeder dritte Veränderungsprozess kann auch heute noch vor allem durch eine mangelnde Integration der Mitarbeiter als nicht erfolgreich betrachtet werden. Aber mehr denn je ist die kreative Beteiligung der Betroffenen und die Übernahme von Eigenverant-wortung notwendig. Entsprechende Maßnahmen der Internen Unternehmenskommunikation müssen nun aus einem Modell für Mobilisierung erwachsen.
Inzwischen stellen diese Zusammenhänge die Verantwortlichen für die Interne Kommunikation vor große Herausforderungen und erfordern ein hohes Maß an Professionalität, die aber in der Praxis noch längst nicht überall Einzug gehalten hat. So gibt dieser Beitrag auch einen Ausblick auf die aktuell zu erkennenden Unterstützungspotenziale der Internen Unternehmenskommunikation im Wertschöpfungsprozess.
Resumo:
Die nachhaltige Verschiebung der Wachstumsmärkte in Richtung Emerging Markets (und hier insbesondere in die BRIC-Staaten) infolge der Wirtschaftskrise 2008/2009 hat die bereits weit reichend konsolidierte Nutzfahrzeugindustrie der Triadenmärkte in Nordamerika, Europa und Japan vor eine Vielzahl von Herausforderungen gestellt. Strategische Ziele wie die Festigung und Steigerung von Absatzvolumina sowie eine bessere Ausbalancierung von zyklischen Marktentwicklungen, die die Ertragssicherung und eine weitestgehend kontinuierliche Auslastung existenter Kapazitäten sicherstellen soll, sind in Zukunft ohne eine Marktbearbeitung in den ex-Triade Wachstumsmärkten kaum noch erreichbar. Dies verlangt eine Auseinandersetzung der betroffenen Unternehmen mit dem veränderten unternehmerischen Umfeld. Es gilt neue, bisher größtenteils unbekannte Märkte zu erobern und sich dabei neuen – teilweise ebenfalls wenig bekannten - Wettbewerbern und deren teilweise durchaus unkonventionellen Strategien zu stellen. Die Triade-Unternehmen sehen sich dabei Informationsdefiziten und einer zunehmenden Gesamtkomplexität ausgesetzt, die zu für sie zu nachteiligen und ungünstigen nformationsasymmetrien führen können. Die Auswirkungen, dieser Situation unangepasst gegenüberzutreten wären deutlich unsicherheits- und risikobehaftetere Marktbearbeitungsstrategien bzw. im Extremfall die Absenz von Internationalisierungsaktivitäten in den betroffenen Unternehmen. Die Competitive Intelligence als Instrument zur unternehmerischen Umfeldanalyse kann unterstützen diese negativen Informationsasymmetrien zu beseitigen aber auch für das Unternehmen günstige Informationsasymmetrien in Form von Informationsvorsprüngen generieren, aus denen sich Wettbewerbsvorteile ableiten lassen. Dieser Kontext Competitive Intelligence zur Beseitigung von Informationsdefiziten bzw. Schaffung von bewussten, opportunistischen Informationsasymmetrien zur erfolgreichen Expansion durch Internationalisierungsstrategien in den Emerging Markets wird im Rahmen dieses Arbeitspapieres durch die Verbindung von wissenschaftstheoretischen und praktischen Implikationen näher beleuchtet. Die sich aus dem beschriebenen praktischen Anwendungsbeispiel Competitive intelligence für afrikanische Marktbearbeitung ergebenden Erkenntnisse der erfolgreichen Anwendung von Competitive Intelligence als Entscheidungshilfe für Internationalisierungsstrategien sind wie folgt angelegt: - Erweiterung der Status-quo, häufig Stammmarkt-zentristisch angelegten Betrachtungsweisen von Märkten und Wettbewerbern in Hinblick auf das reale Marktgeschehen oder Potentialmärkte - bias-freie Clusterung von Märkten bzw. Wettbewerbern, oder Verzicht auf den Versuch der Simplifizierung durch Clusterbildung - differenzierte Datenerhebungsverfahren wie lokale vs. zentrale / primäre vs. sekundäre Datenerhebung für inhomogene, unterentwickelte oder sich entwickelnde Märkte - Identifizierung und Hinzuziehung von Experten mit dem entscheidenden Wissensvorsprung für den zu bearbeitenden Informationsbedarf - Überprüfung der Informationen durch Datentriangulation
Resumo:
Die Unternehmensumwelt wird zunehmend von dynamischen Veränderungen und Turbulenzen geprägt. Globalisierung der Märkte und schneller wechselnde Umfeldveränderungen zwingen die Unternehmen dazu, ihr strategisches Verhalten ständig an neue Bedingungen anzupassen. Ein vorausschauendes Denken und Handeln wird immer notwendiger, da in vielen Branchen Produkte und Dienstleistungen in wesentlich kürzeren Zeitabständen als bisher durch Neue ersetzt werden. Um das unternehmerische Umfeld im Blick zu haben und über Pläne, Leistungen und Kompetenzen der Konkurrenten und Kunden über Marktveränderungen und technische Neuerungen etc. aktuell und vorausschauend informiert zu sein, wird ein intelligentes, systematisches Vorgehen bei der Informationsversorgung mit Umfeldinformationen benötigt. Die Dissertation befasst sich mit der Entwicklung, Implementierung und Untersuchung eines Softwareinstrumentes und systematischen Arbeitsprozesses, um die Versorgung von Managern und Mitarbeitern mit Umfeldinformationen (externen Informationen) zu verbessern um aufkommende Chancen und/oder Risiken frühzeitig zu erkennen. Der Schwerpunkt der Arbeit bezieht sich hauptsächlich auf die Phase der Informationsbereitstellung (Beschaffung, Verarbeitung und Präsentation) und dem Abruf der Umfeldinformationen durch die Manager und Mitarbeiter. Das entwickelte Softwareinstrument und die Arbeitsabläufe werden in drei Untersuchungsfirmen implementiert und evaluiert. Über eine schriftliche Befragung soll der Zustand vor Einführung des Softwareinstrumentes und Arbeitsabläufen und ein Jahr danach erfasst werden. Zur Ergänzung der Ergebnisse der schriftlichen Erhebung werden zusätzlich leitfadengestützte Einzelinterviews durchgeführt werden. Spezielle Auswertungen der Systemzugriffe sollen Aufschluss über den Nutzungsumfang und -häufigkeit im Zeitablauf geben. Über eine sukzessive Optimierung der Software und Arbeitsabläufe werden abschließend ein überarbeitetes Softwareinstrument sowie angepasste Arbeitsabläufe und ein Einführungsverfahren vorgestellt.
Resumo:
Im Mittelpunkt der Dissertation stehen das Schutzgut ‚Landschaft’ sowie ‚Prognosemethoden in der Umweltprüfung’. Mit beiden Themenbereichen verbinden sich bereits heute ungelöste methodische Probleme, die mit der Umsetzung der Richtlinie zur Strategischen Umweltprüfung (SUP) zusätzlich komplexer und deren Lösung mithin anspruchsvoller werden. Dies hängt einerseits damit zusammen, dass eine gesetzeskonforme Gleichbehandlung aller Schutzgüter zunehmend eingefordert wird und gerade das Schutzgut ‚Landschaft’ in einer SUP methodisch besondere Aufmerksamkeit verlangt. Zum anderen führt die gängige planungsmethodische Diskussion allein nicht zu geeigneten Antworten auf o.g. Fragen, und es bedarf der Prüfung verschiedener Methodenbausteine, auch aus anderen Wissensgebieten, um – über ein eindimensionales Landschaftsverständnis einerseits und die bisher bekannten linearen Wirkungsprognosen andererseits hinaus gehend – mehrfach verknüpfte Prognoseschritte zur Anwendung in der SUP zu entwickeln, in denen das Schutzgut ‚Landschaft’ modellhaft für Bewertungsschritte nachvollziehbar abgebildet wird. Hierbei müssen entscheidungsrelevante Prognosezeiträume ebenso beachtet werden, wie in diesen Zeiträumen möglicherweise auftretende sekundäre, kumulative, synergetische, positive und negative Auswirkungen der zu beurteilenden Planung. Dieser Ziel- und Aufgabenstellung entsprechend erfolgt die theoretische Herangehensweise der Arbeit von zwei Seiten: 1. Die Funktionen und Stellung von Prognosen innerhalb der SUP wird erläutert (Kap. 2), und es wird der Frage nachgegangen, welche Anforderungen an Prognosemethoden zu stellen sind (Kap. 2.4) und welche Prognosemethoden in der SUP Verwendung finden bzw. finden können (Kap. 3). Der Schwerpunkt wird dabei auf die Anwendung der Szenariotechnik gelegt. 2. Es wird dargestellt wie Landschaft für Aufgaben der Landschaftsplanung und Umweltprüfung bisher üblicherweise erfasst und analysiert wird, um in Prognoseschritten handhabbar behandelt zu werden (Kap. 4). Beide Zugänge werden sodann zusammengeführt (Kap. 5), um am Beispiel einer Hochwasserschutzkonzeption im Rahmen der SUP Landschaftliche Prognosen zu erarbeiten. Die Prognose setzt methodisch mit der Beschreibung des zu verwendenden Landschaftsmodells und der Klärung des Modellzwecks ein. Bezugsbasis ist die Beschreibung des Charakters einzelner logisch hergeleiteter Landschaftseinheiten bzw. Landschaftsräume, die typisiert werden. Die Prognose selber unterscheidet zwischen der Abschätzung zu erwartender Landschaftsveränderungen im Sinne der ‚Status-quo-Prognose’ (einschließlich der Entwicklung von drei Szenarien möglicher Zukunftslandschaften bis 2030) und der Wirkungsabschätzungen verschiedener Maßnahmen bzw. Planungsalternativen und zwar zunächst raumunabhängig, und dann raumkonkret. Besondere Bedeutung bei den Wirkungsabschätzungen erhält die klare Trennung von Sach- und Wertebene, eine angemessene Visualisierung und die Dokumentation von Informationslücken und Unsicherheiten bei der Prognose. Diskutiert wird u.a. (Kap. 6) · die Bildung und Abgrenzung landschaftlicher Einheiten und Typen in Bezug zu der Aufgabe, landschaftliche Eigenart zu definieren und planerisch handhabbar und anwendbar zu bestimmen, · die Bedeutung angemessener Visualisierung zur Unterstützung von Beteiligungsverfahren und · die Bestimmung des so genannten ‚Raumwiderstandes’. Beigefügt sind zwei Karten des gesamten Bearbeitungsgebietes: Karte 1 „Landschaftstypen“, Karte 2 „Maßnahmentypen des Hochwasserschutzes mit möglichen Synergieeffekten für die Landschaft“.
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Mit der Verwirklichung ,Ökologischer Netzwerke‘ werden Hoffnungen zum Stopp des Verlustes der biologischen Vielfalt verknüpft. Sowohl auf gesamteuropäischer Ebene (Pan-European Ecological Network - PEEN) als auch in den einzelnen Staaten entstehen Pläne zum Aufbau von Verbundsystemen. Im föderalen Deutschland werden kleinmaßstäbliche Biotopverbundplanungen auf Landesebene aufgestellt; zum nationalen Biotopverbund bestehen erste Konzepte. Die vorliegende Arbeit ist auf diese überörtlichen, strategisch vorbereitenden Planungsebenen ausgerichtet. Ziele des Verbunds sind der Erhalt von Populationen insbesondere der gefährdeten Arten sowie die Ermöglichung von Ausbreitung und Wanderung. Aufgrund fehlender Datengrundlagen zu den Arten und Populationen ist es nicht ohne weiteres möglich, die Konzepte und Modelle der Populationsökologie in die überörtlichen Planungsebenen zu übertragen. Gemäß der o.g. Zielstellungen sollte sich aber die Planung von Verbundsystemen an den Ansprüchen der auf Verbund angewiesenen Arten orientieren. Ziel der Arbeit war die Entwicklung einer praktikablen GIS-gestützten Planungshilfe zur größtmöglichen Integration ökologischen Wissens unter der Bedingung eingeschränkter Informationsverfügbarkeit. Als Grundlagen dazu werden in Übersichtsform zunächst die globalen, europäisch-internationalen und nationalen Rahmenbedingungen und Anforderungen bezüglich des Aufbaus von Verbundsystemen zusammengestellt. Hier sind die Strategien zum PEEN hervorzuheben, die eine Integration ökologischer Inhalte insbesondere durch die Berücksichtigung räumlich-funktionaler Beziehungen fordern. Eine umfassende Analyse der landesweiten Biotopverbundplanungen der BRD zeigte die teilweise erheblichen Unterschiede zwischen den Länderplanungen auf, die es aktuell nicht ermöglichen, ein schlüssiges nationales Konzept zusammenzufügen. Nicht alle Länder haben landesweite Biotopverbundplanungen und Landeskonzepte, bei denen dem geplanten Verbund die Ansprüche von Arten zugrunde gelegt werden, gibt es nur ansatzweise. Weiterhin wurde eine zielgerichtete Eignungsprüfung bestehender GIS-basierter Modelle und Konzepte zum Verbund unter Berücksichtigung der regelmäßig in Deutschland verfügbaren Datengrundlagen durchgeführt. Da keine integrativen regelorientierten Ansätze vorhanden waren, wurde der vektorbasierte Algorithmus HABITAT-NET entwickelt. Er arbeitet mit ,Anspruchstypen‘ hinsichtlich des Habitatverbunds, die stellvertretend für unterschiedliche ökologische Gruppen von (Ziel-) Arten mit terrestrischer Ausbreitung stehen. Kombiniert wird die Fähigkeit zur Ausbreitung mit einer Grobtypisierung der Biotopbindung. Die wichtigsten Grundlagendaten bilden die jeweiligen (potenziellen) Habitate von Arten eines Anspruchstyps sowie die umgebende Landnutzung. Bei der Bildung von ,Lebensraumnetzwerken‘ (Teil I) werden gestufte ,Funktions- und Verbindungsräume‘ generiert, die zu einem räumlichen System verknüpft sind. Anschließend kann die aktuelle Zerschneidung der Netzwerke durch Verkehrstrassen aufgezeigt werden, um darauf aufbauend prioritäre Abschnitte zur Wiedervernetzung zu ermitteln (Teil II). Begleitend wird das Konzept der unzerschnittenen Funktionsräume (UFR) entworfen, mit dem die Indikation von Habitatzerschneidung auf Landschaftsebene möglich ist. Diskutiert werden schließlich die Eignung der Ergebnisse als kleinmaßstäblicher Zielrahmen, Tests zur Validierung, Vergleiche mit Verbundplanungen und verschiedene Setzungen im GIS-Algorithmus. Erläuterungen zu den Einsatzmöglichkeiten erfolgen beispielsweise für die Bereiche Biotopverbund- und Landschaftsplanung, Raumordnung, Strategische Umweltprüfung, Verkehrswegeplanung, Unterstützung des Konzeptes der Lebensraumkorridore, Kohärenz im Schutzgebietssystem NATURA 2000 und Aufbau von Umweltinformationssystemen. Schließlich wird ein Rück- und Ausblick mit der Formulierung des weiteren Forschungsbedarfs verknüpft.
Resumo:
Unternehmen konkurrieren in einem globalen Wettbewerb um den Transfer neuer Technologien in erfolgreiche Geschäftsmodelle. Aus diesem Grund stehen sie zunehmend der Herausforderung gegenüber, technologische Potenziale frühzeitig zu identifizieren, zu bewerten und Strategien für das Erschließen dieser Potenziale zu entwickeln. Dies ist zentraler Gegenstand der Vorausschau und Planung neuer Technologiepfade. In der vorliegenden Arbeit wird gemeinsam mit vier Unternehmen ein Leitfaden für die Strategiefindung, Entwicklung und Kommerzialisierung neu aufkommender Technologien entwickelt und angewendet. Den Ausgangspunkt der Arbeit bildet eine systematische Aufarbeitung des Forschungsstandes der Vorausschau und Planung neuer Technologien. Anschließend wird ein Beschreibungsmodell der Entstehung neuer Technologiepfade in technologiebasierten Innovationssystemen entwickelt. Auf Basis dieses Modells werden unterschiedliche Kategorien von Einflussfaktoren definiert, die als Analyserahmen für die neu entstehende Technologie dienen. Auf Basis der in der Literatur dokumentierten Abläufe, Teamstrukturen und Methoden (z.B. Roadmaps, Szenarien, Datenbankanalysen) wird ein sechsstufiger Ansatz für die Durchführung der Vorausschau und Planung neuer Technologiepfade konzipiert. Dieser Ansatz wird in vier Firmen für die Vorausschau und Planung neuer Technologien angewendet. Die untersuchten Technologien lassen sich den Feldern Biotechnologie, Nanotechnologie, Umwelttechnologie und Sensorik zuordnen. Zentrales Ergebnis der Arbeit ist ein entsprechend der Erfahrungen in den Unternehmen angepasster Ansatz für die Vorausschau und Planung neuer Technologiepfade. Dieser Ansatz ist in Abhängigkeit von Unternehmens- und Technologiecharakteristika für die weitere Anwendung konkretisiert. Dabei finden die zu beteiligenden Organisationseinheiten, zu betrachtende Einflussfaktoren sowie anwendbare Methoden besondere Berücksichtigung. Die Arbeit richtet sich an Personen in Führungspositionen im Bereich des strategischen Technologiemanagements sowie der Forschung und Entwicklung in Unternehmen, die Strategien für neu aufkommende Technologien entwickeln. Weiterhin sind die Ergebnisse der Arbeit für Wissenschaftler auf dem Gebiet der Methoden zur Vorausschau und Strategieentwicklung für neue Technologien von Interesse.
Resumo:
Die Geschäftspolitik der Banken und Sparkassen befindet sich in einem tiefgreifenden Veränderungsprozess. Lange Zeit war der stationäre Vertrieb mit großem Abstand der bedeutendste Absatzweg der Kreditinstitute. Damit ist es nun offenbar zu Ende. Alternative Vertriebskanäle gewinnen zunehmend an Bedeutung. Online-Broker und Direktbanken, wie z.B. DAB bank und ING-DiBa, sind dafür die besten Beispiele. Der Verfasser hat sich mit der vorliegenden Promotion der Aufgabe unterworfen, die Erfolgsstrategien und weitere Entwicklung der Direktbanken in Deutschland einer kritischen Analyse zu unterziehen. Dabei werden in erster Linie Direktbanken und Online-Broker betrachtet, aber auch sog. Internet-Only-Banken bzw. virtuelle Banken in die Überlegungen einbezogen. Gegenstand des ersten Kapitels ist die Betrachtung der traditionellen Vertriebswegestruktur im Privatkundengeschäft. Dabei wird deutlich, dass die neue Entwicklungsstufe “Direct Banking” die ehemals so monotone Vertriebspolitik der Kreditinstitute zwar nicht völlig ersetzen, aber gut ergänzen kann. Im zweiten Kapitel werden die Grundlagen des “Direct Banking” beschrieben und abgegrenzt, wobei die historische Entwicklung, die Beweggründe der Kreditinstitute und auch die Anbieterstruktur im einzelnen untersucht werden. Das Discount-Broking wird ebenfalls angesprochen, weil es als Vorläufer des Direktbankgeschäfts angesehen wird. Das dritte Kapitel stellt die strategischen Erfolgsfaktoren im Direct Banking vor und beschreibt einige Vorbehalte und derzeit noch bestehende Problemfelder. Der Ansatz einer ganzheitichen Direct-Banking-Strategie wird in einem gesonderten Abschnitt dargestellt und in sechs Phasen unterteilt. Abschließend werden fünf strategische Maßnahmen zur Verbesserung des Stellenwertes der Direktbanken präsentiert. Das vierte Kapitel beschäftigt sich mit den Auswirkungen auf das traditionelle Bankgeschäft und beleuchtet somit die Zukunft des Retail Banking. Der notwendige Anpassungsprozess im Filil Banking wird erklärt. Dabei werden die strategischen Herausforderungen im Filialbankgeschäft behandelt und Maßnahmen zur Kundenbindung und Kostensenkung aufgezeigt. Im letzten Kapitel werden die Zukunftsaspekte des Direct Banking etwas näher untersucht. Zunächst werden die wesentlichen Ergebnisse zur erfolgreichen Ausübung des Direkbankgeschäfts in Thesen zusammengefasst. Anschließend wird die Umbruchphase zum Virtual Banking anhand von drei Grundtrends analysiert.
Resumo:
Zulässigkeit der Einführung der Kulturflatrate nach Verfassungsrecht, Urheberrecht, Datenschutzrecht, Europarecht und Drei-Stufen-Test
Resumo:
Die Arbeit beschäftigt sich mit didaktischen Aspekten einer neuen Aufgabenkultur und mit ihrem Kern, den Modellierungsaufgaben. Im ersten Teil der Dissertation wird ein Überblick über ausgewählte Theorien und empirische Ergebnisse aus den Bereichen Lehr-Lernforschung, Problemlöseforschung, kognitive Psychologie sowie Allgemeindidaktik und den Fachdidaktiken gegeben. Es zeigt sich, dass Schüler-Schwierigkeiten und Schüler-Strategien eine bedeutende Rolle für den Lernprozess spielen, jedoch bei den Modellierungsaufgaben nicht ausreichend erforscht sind. Ziel der vorliegenden Arbeit ist es, Schüler-Schwierigkeiten und -Strategien bei der Bearbeitung von Modellierungsaufgaben empirisch zu erfassen, mit kognitiven Lern- und Problemlösetheorien zu verbinden und erste Bausteine einer Didaktik der Aufgabenkultur zu entwerfen. Drei zentrale Fragestellungen sind dabei: 1. Welche Schwierigkeiten haben Schüler beim Bearbeiten von Modellierungsaufgaben? 2. Welche Strategien wenden sie bei der Aufgabenbearbeitung an? 3. Welche didaktischen Konsequenzen können aufgrund der Antworten auf die erste und zweite Frage für die Didaktik der neuen Aufgabenkultur gezogen werden? Die Analyse der Bearbeitung von drei Modellierungsaufgaben durch vier Neuntklässler unterschiedlicher Kompetenzstufen (12 Fälle) mit Hilfe der Grounded Theory erfolgte hypothesenorientiert und erbrachte folgende Ergebnisse: Die Schüler-Schwierigkeiten bei der Bearbeitung der Modellierungsaufgaben lassen sich in drei Tätigkeitsbereiche aufschlüsseln: (1) die Aufgabe lesen und verstehen, (2) den Zusammenhang zwischen Gegebenheiten der Situation und mathematischer Lösungsstruktur verstehen sowie (3) Umformung mathematischer Strukturen, Ausführung der Rechenoperationen und Interpretieren der Ergebnisse. In den genannten Tätigkeitsbereichen wurden jeweils erfolgversprechende Strategien wie z.B. die Organisationsstrategie „Zeichnen und Beschriften einer Skizze“, die kooperative Strategie „Wechsel zwischen individueller Konstruktion und kooperativer Ko-Konstruktion“ oder die metakognitive Strategie „Planung“ identifiziert und ihre Ausführung dokumentiert. Aus den empirischen Analysen lässt sich eine Reihe von wichtigen Stichpunkten nennen, die einen bedeutsamen Bestandteil der Didaktik einer neuen Aufgabenkultur bilden. Wichtige Stichworte dazu sind die Einbettung der Aufgaben in Lernumgebungen, der Einbezug kooperativer Strategien, ein neues Verständnis von Lehrerinterventionen, das Diagnose und lernbegleitende Unterstützung stärker akzentuiert, Selbstregulierung und Individualisierung, Problem- und Lernprozessorientierung im Unterricht. Wird der letzte Punkt genau analysiert, zeigt sich, dass es zur erfolgreichen Lernprozessgestaltung notwendig ist, längerfristig die Zielperspektive, unter der die Schüler Aufgaben bearbeiten, zu verändern. Beim Bearbeiten der Aufgaben sollen Schülerhandlungen, statt sich nur auf die Lösung einer Aufgabe zu beschränken, auf den individuellen Erwerb von Wissen, Kompetenzen und Strategien ausgerichtet werden (Prozess-Ergebnis-Orientierung). Erreicht werden soll die Prozess-Ergebnis-Orientierung durch eine bessere strategische Durcharbeitung des Unterrichts, der gleichermaßen das Ausschöpfen des Potentials für die Selbststeuerung des Lernens bei den Schülern sowie die dafür notwendige Weiterentwicklung des diagnostischen und unterstützenden Handelns von Lehrerinnen und Lehrern betont.
Resumo:
Eine effektive, effiziente und wirkungsorientierte kommunalpolitische Arbeit stellt hohe Anforderungen an Politik und Verwaltung. Trotz zahlreicher erfolgsversprechender Ansätze ist der aktuelle Status quo ernüchternd. Schwerpunkt der Dissertation ist deshalb die Entwicklung eines praxistauglichen Konzeptes zur Integration der strategischen Planung in die Haushaltsplanung einer Kommune mit dem Ziel einer nachhaltigen Verbesserung der strategischen Steuerung. Eine ergänzende ökonomische Funktionsanalyse von beteiligten Rechtsfiguren erweitert dabei die klassisch wirtschaftstheoretische Betrachtungsweise um sozialwissenschaftliche Aspekte, die im Zusammenspiel von Institutionen eine wichtige Rolle spielen. Der konzipierte Ansatz kommt, durch die Fokussierung auf das öffentliche Interesse, einem partizipativen und transparenten Idealbild von Steuerung im kommunalen Bereich auf der Basis der New Public Management Bewegung sehr nahe und könnte helfen der verstärkt festzustellenden Politikverdrossenheit entgegen zu wirken.
Resumo:
Since its beginning in 1999, the Bologna Process has influenced various aspects of higher education in its member countries, e.g., degree structures, mobility, lifelong learning, social dimension and quality assurance. The social dimension creates the focus of this research. The social dimension entered the Bologna Process agenda in 2001. Despite a decade of reforms, it somehow remained as a vague element and received low scholarly attention. This research addresses to this gap. Firstly, different meanings of the social dimension according to the major European policy actors are analysed. Unfolding the understandings of the actors revealed that the social dimension is mostly understood in terms reflecting the diversity of population on the student body accessing to, progressing in and completing higher education, with a special concern on the underrepresented groups. However, it is not possible to observe a similar commonality concerning the actual policy measures to achieve this goal. Divergence occurs with respect to the addressed underrepresented groups, i.e., all underrepresented groups or people without formal qualifications and mature learners, and the values and institutional interests traditionally promoted by these actors. Secondly, the dissertation discusses the reflection of this social dimension understanding at the national level by looking at cases of Finland, Germany and Turkey. The in-depth analyses show an awareness of the social dimension among most of the national Bologna Process actors and a common understanding of the social dimension goals. However, this understanding has not triggered action in any of the countries. The countries acted on areas which they defined problematic before the Bologna Process. Finally, based on these findings the dissertation discusses the social dimension as a policy item that managed to get into the Bologna Process agenda, but neither grew into an implementable policy, nor drop out of it. To this aim, it makes use of the multiple streams framework and explains the low agenda status social dimension with: i. the lack of a pressing problem definition: the lack of clearly defined indicators and a comprehensive monitoring system, ii. the lack of a viable solution alternative: the proposal of developing national strategies and action plans closed the way to develop generic guidelines for the social dimension to be translated into national policy processes, iii. low political perceptivity: the recent trends opt for increasing efficiency, excellence and exclusiveness discourses rather than ensuring equality and inclusiveness iv. high constraints: the social dimension by definition requires more public funding which is less appreciated and strategic constraints of the actors in allocating their resources v. the type of policy entrepreneur: the social dimension is promoted by an international stakeholder, the European Students’ Union, instead of the ministers responsible for higher education The social dimension remains a policy item in the Bologna Process which is noble enough to agree but not urgent enough to act on.
Resumo:
In der psycholinguistischen Forschung ist die Annahme weitverbreitet, dass die Bewertung von Informationen hinsichtlich ihres Wahrheitsgehaltes oder ihrer Plausibilität (epistemische Validierung; Richter, Schroeder & Wöhrmann, 2009) ein strategischer, optionaler und dem Verstehen nachgeschalteter Prozess ist (z.B. Gilbert, 1991; Gilbert, Krull & Malone, 1990; Gilbert, Tafarodi & Malone, 1993; Herbert & Kübler, 2011). Eine zunehmende Anzahl an Studien stellt dieses Zwei-Stufen-Modell von Verstehen und Validieren jedoch direkt oder indirekt in Frage. Insbesondere Befunde zu Stroop-artigen Stimulus-Antwort-Kompatibilitätseffekten, die auftreten, wenn positive und negative Antworten orthogonal zum aufgaben-irrelevanten Wahrheitsgehalt von Sätzen abgegeben werden müssen (z.B. eine positive Antwort nach dem Lesen eines falschen Satzes oder eine negative Antwort nach dem Lesen eines wahren Satzes; epistemischer Stroop-Effekt, Richter et al., 2009), sprechen dafür, dass Leser/innen schon beim Verstehen eine nicht-strategische Überprüfung der Validität von Informationen vornehmen. Ausgehend von diesen Befunden war das Ziel dieser Dissertation eine weiterführende Überprüfung der Annahme, dass Verstehen einen nicht-strategischen, routinisierten, wissensbasierten Validierungsprozesses (epistemisches Monitoring; Richter et al., 2009) beinhaltet. Zu diesem Zweck wurden drei empirische Studien mit unterschiedlichen Schwerpunkten durchgeführt. Studie 1 diente der Untersuchung der Fragestellung, ob sich Belege für epistemisches Monitoring auch bei Informationen finden lassen, die nicht eindeutig wahr oder falsch, sondern lediglich mehr oder weniger plausibel sind. Mithilfe des epistemischen Stroop-Paradigmas von Richter et al. (2009) konnte ein Kompatibilitätseffekt von aufgaben-irrelevanter Plausibilität auf die Latenzen positiver und negativer Antworten in zwei unterschiedlichen experimentellen Aufgaben nachgewiesen werden, welcher dafür spricht, dass epistemisches Monitoring auch graduelle Unterschiede in der Übereinstimmung von Informationen mit dem Weltwissen berücksichtigt. Darüber hinaus belegen die Ergebnisse, dass der epistemische Stroop-Effekt tatsächlich auf Plausibilität und nicht etwa auf der unterschiedlichen Vorhersagbarkeit von plausiblen und unplausiblen Informationen beruht. Das Ziel von Studie 2 war die Prüfung der Hypothese, dass epistemisches Monitoring keinen evaluativen Mindset erfordert. Im Gegensatz zu den Befunden anderer Autoren (Wiswede, Koranyi, Müller, Langner, & Rothermund, 2013) zeigte sich in dieser Studie ein Kompatibilitätseffekt des aufgaben-irrelevanten Wahrheitsgehaltes auf die Antwortlatenzen in einer vollständig nicht-evaluativen Aufgabe. Die Ergebnisse legen nahe, dass epistemisches Monitoring nicht von einem evaluativen Mindset, möglicherweise aber von der Tiefe der Verarbeitung abhängig ist. Studie 3 beleuchtete das Verhältnis von Verstehen und Validieren anhand einer Untersuchung der Online-Effekte von Plausibilität und Vorhersagbarkeit auf Augenbewegungen beim Lesen kurzer Texte. Zusätzlich wurde die potentielle Modulierung dieser Effeke durch epistemische Marker, die die Sicherheit von Informationen anzeigen (z.B. sicherlich oder vielleicht), untersucht. Entsprechend der Annahme eines schnellen und nicht-strategischen epistemischen Monitoring-Prozesses zeigten sich interaktive Effekte von Plausibilität und dem Vorhandensein epistemischer Marker auf Indikatoren früher Verstehensprozesse. Dies spricht dafür, dass die kommunizierte Sicherheit von Informationen durch den Monitoring-Prozess berücksichtigt wird. Insgesamt sprechen die Befunde gegen eine Konzeptualisierung von Verstehen und Validieren als nicht-überlappenden Stufen der Informationsverarbeitung. Vielmehr scheint eine Bewertung des Wahrheitsgehalts oder der Plausibilität basierend auf dem Weltwissen – zumindest in gewissem Ausmaß – eine obligatorische und nicht-strategische Komponente des Sprachverstehens zu sein. Die Bedeutung der Befunde für aktuelle Modelle des Sprachverstehens und Empfehlungen für die weiterführende Forschung zum Vehältnis von Verstehen und Validieren werden aufgezeigt.
Resumo:
Der kundenindividuelle Anlagenbau (z. B. im Bereich Energie-, Kraftwerk- und Umwelttechnik) ist durch ein klassisches Projektgeschäft geprägt und erfordert ein individuelles Projektmanagement in Abhängigkeit von dem zu liefernden Produkt und den jeweiligen kunden- und projektindividuellen Rahmenbedingungen. So steht das Projektmanagement hier vor der Herausforderung, dass Anlagen in Form einer Baustellenfertigung als Unikate realisiert werden müssen, wobei die einzelnen Module häufig an unterschiedlichen Standorten gefertigt und dann unter Beachtung systemtechnischer, konstruktiver, lokaler, logistischer, energetischer, wetterbedingter, zeitlicher und finanzieller Randbedingungen beim Kunden montiert werden müssen. Zudem werden Projekterfahrungen selten über Projekte hinaus weitergereicht, d. h. es erfolgt nur bedingt eine Zusammenführung des Erfahrungswissens, das während der Projektrealisierung anwächst. Zur Risikovermeidung im Projektverlauf und zur Erreichung einer termingerechten Inbetriebnahme sind daher in Erweiterung zu den heutigen Projektmanagementwerkzeugen ergänzende Methoden zur Abschätzung von Projektunsicherheiten und zur Bewertung von Projektplänen, aber auch zur nachhaltige Nutzung von Projektwissen notwendig. Zur Verbesserung des logistikintegrierten Projektmanagements im kundenindividuellen Anlagenbau wurde daher eine Methodik zur projekt- und produktspezifischen Unterstützung des Projektmanagements entwickelt und anhand eines Demonstrators umgesetzt. Statt den Unsicherheiten im Projektverlauf mit zusätzlichen Pufferzeiten zu begegnen, bewertet jetzt eine mit Optimierungs-, Analyse- und Visualisierungsverfahren kombinierte Ablaufsimulation zufällige Einflüsse in den Plänen. Hierdurch wird eine Verbesserung des Risikomanagements in den Projekten erreicht, indem bestehende Unsicherheiten in den Planungsprozessen simuliert und reduziert werden. Um einen transparenten Projektmanagementprozess zu erhalten und auch Erfahrungswissen aus vorangegangenen Projekten einzubinden, lassen sich Referenzprojektpläne unter Berücksichtigung von Restriktionen nutzen, die durch das zu erstellende Produkt, die zu verwendenden Technologien, die zugrundeliegenden Prozesse oder die notwendigen logistischen Ressourcen bedingt sind. Die IT-Architektur der Plattform ist werkzeugneutral, so dass das entwickelte Konzept auf Branchen außerhalb des Anlagenbaus übertragbar ist. Dies haben Vertreter verschiedener Industrieunternehmen des Anlagenbaus aus den Bereichen der Umwelt- und Energietechnik, des Schiffbaus, der Automobilindustrie sowie dem OWL Maschinenbau e.V. bestätigt.