998 resultados para Hetzer, Armin: Estnisch : eine Einführung
Resumo:
Souvent laissée pour contre par les théoriciens, longtemps associée à la littérature populaire, la littérature fantastique a su depuis se tailler une place parmi les grands genres de la littérature. Depuis le milieu du XXe siècle, les chercheurs et le public découvrent ou redécouvrent un genre qui a toujours fait parti du paysage littéraire. Une œuvre majeure contribuera à la redécouverte scientifique du genre : Écrite en 1970 l’œuvre de Tzvetan Todorov Introduction à la littérature fantastique donne tant au néophyte qu’au chercheur un ouvrage qui trouve encore des échos aujourd’hui. Sa définition du fantastique, son approche du rôle du narrateur et du lecteur sont une référence, un point de départ et surtout un incontournable pour ceux et celles qui désirent comprendre et apprendre le fantastique. Dans ce mémoire, nous nous concentrerons particulièrement sur le rôle et la problématique du narrateur dans l’œuvre de deux représentants majeurs de la littérature fantastique de langue allemande du début du XXe siècle : Leo Perutz (1882-1957) et Alexander Lernet-Holenia (1897-1976). Le narrateur semble jouer un rôle prédominant dans la littérature fantastique. En effet, par son discours souvent présenté au « je », il semble créer une dynamique très particulière : il manipule son propre discours, il agit sur le lecteur en étant narrateur et personnage dans le récit, il crée une tension entre les différentes couches narratives par son état instable. Bref, il semble contribuer à l’apparition du fantastique dans le texte et également provoquer une certaine hésitation chez le lecteur. Le texte joue également un rôle : Leo Perutz produit un modèle de texte qui semble marquer aussi son collègue Alexander Lernet-Holenia. La structure presque mathématique des textes de Perutz rappelle que le fantastique peut jouer même à l’intérieur de paramètres rigides avec l’ordre et le chaos, les frontières entre le réel et le rêve. Nous étudierons des œuvres de Leo Perutz et d’Alexander Lernet-Holenia qui ont été publiées entre 1915 et 1937. Les théories qui serviront à appuyer mon travail sont tirées entre autre des études de Tzvetan Todorov et Uwe Durst sur la littérature fantastique et de Gérard Genette sur le narrateur.
Resumo:
La forme humaine de la racine de la mandragore est sans doute à l’origine de la fascination que cette plante exerce depuis des millénaires. On lui attribue des qualités surnaturelles : entre autres, elle rendrait son propriétaire infiniment riche. Les détails lugubres se rapportant au mythe de la mandragore font d’elle un thème de prédilection pour la littérature fantastique. Le but de ce travail est d’analyser la légende de la mandragore dans trois œuvres de la littérature fantastique allemande (Isabelle d’Égypte (1812) d’Achim von Arnim, Petit Zacharie surnommé Cinabre (1819) d’E.T.A. Hoffmann et Mandragore (1911) de Hanns Heinz Ewers), dans lesquelles ce motif est combiné avec un thème aussi très prisé du genre fantastique : l’homme artificiel. Dans une perspective intertextuelle, j’analyserai comment chaque auteur s’approprie le mythe de la mandragore et représente le personnage-mandragore. Je me concentrerai ensuite sur les nouvelles qualités créées par son statut de créature artificielle et sur la relation de cette dernière avec son créateur. Puis, j’examinerai le rôle du personnage-mandragore dans chacune des œuvres dans son contexte historique. Ainsi, je montrerai que les personnages-mandragores possèdent bel et bien des caractéristiques qui se réfèrent à la légende de la mandragore, mais que leur nature de créature artificielle leur fait endosser dans leur récit un rôle d’antagoniste qui s’apparente à celui du trickster. Finalement, j’expliquerai comment les auteurs utilisent le motif de la mandragore et la littérature fantastique pour dénoncer la corruption, critiquer les partisans des Lumières et créer une atmosphère de décadence qui justifie l’utilisation du thème de la femme fatale.
Resumo:
Der Markt für öffentlichen Personennahverkehr (ÖPNV) wird liberalisiert, in die gewachsenen Monopolstrukturen werden Marktmechanismen implementiert. Ziel der neuen ordnungspolitischen Rahmenbedingungen ist die Steigerung der Effizienz des defizitären Verkehrsbereichs, der von kommunalen Verkehrsunternehmen dominiert wird. Diese erbringen als Quasi-Monopolisten traditionell die Verkehrsdurchführung, regelmäßig anfallende Defizite werden von der öffentlichen Hand ausgeglichen. Bedingt durch ihre Leistungsstrukturen sind kommunale Verkehrsunternehmen in einem Wettbewerbsmarkt kaum konkurrenzfähig. Charakteristisch für diesen Unternehmenstyp ist der hohe Grad an vertikal integrierten Wertschöpfungsstufen. Im Gegensatz zu anderen Branchen erbringen kommunale Verkehrsunternehmen die wesentlichen Teile der gesamten ÖPNV-Wertschöpfungskette innerhalb der eigenen Unternehmensgrenzen. An dem hohen vertikalen Integrationsgrad setzt die Untersuchung an. Mit dem von Williamson entwickelten Instrumentarium der Transaktionskostentheorie werden die Leistungsbereiche einer transaktionskostentheoretischen Bewertung unterzogen. Als Alternativen zum institutionellen Arrangement der vertikalen Integration – das als Hierarchie bezeichnet wird – stehen die Arrangements Kooperation und Markt zur Verfügung. Die Bewertung zeigt, welche Leistungsbereiche unter transaktionskostentheoretischen Gesichtspunkten hierarchisch institutionalisiert werden sollten und welche alternativ erbracht werden können. Aus den Ergebnissen werden Strategieempfehlungen abgeleitet, die als Arbeitshypothesen einer anschließenden empirischen Überprüfung unterzogen werden. Die befragten ÖPNV-Experten bewerten somit die Marktfähigkeit der Strategieempfehlungen. Die Untersuchungsergebnisse werden für die Erarbeitung eines alternativen Koordinierungsarrangements für kommunale Verkehrsunternehmen herangezogen. Das Modell basiert auf der Grundlage Strategischer Netzwerke. Kommunale Verkehrsunternehmen nehmen in dem Modell die Rolle des Nukleus ein, der eine Vielzahl von Netzwerkpartnern steuert und für die Erbringung der ÖPNV-Leistungen mit diesen kooperiert.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
Die stereoskopische 3-D-Darstellung beruht auf der naturgetreuen Präsentation verschiedener Perspektiven für das rechte und linke Auge. Sie erlangt in der Medizin, der Architektur, im Design sowie bei Computerspielen und im Kino, zukünftig möglicherweise auch im Fernsehen, eine immer größere Bedeutung. 3-D-Displays dienen der zusätzlichen Wiedergabe der räumlichen Tiefe und lassen sich grob in die vier Gruppen Stereoskope und Head-mounted-Displays, Brillensysteme, autostereoskopische Displays sowie echte 3-D-Displays einteilen. Darunter besitzt der autostereoskopische Ansatz ohne Brillen, bei dem N≥2 Perspektiven genutzt werden, ein hohes Potenzial. Die beste Qualität in dieser Gruppe kann mit der Methode der Integral Photography, die sowohl horizontale als auch vertikale Parallaxe kodiert, erreicht werden. Allerdings ist das Verfahren sehr aufwendig und wird deshalb wenig genutzt. Den besten Kompromiss zwischen Leistung und Preis bieten präzise gefertigte Linsenrasterscheiben (LRS), die hinsichtlich Lichtausbeute und optischen Eigenschaften den bereits früher bekannten Barrieremasken überlegen sind. Insbesondere für die ergonomisch günstige Multiperspektiven-3-D-Darstellung wird eine hohe physikalische Monitorauflösung benötigt. Diese ist bei modernen TFT-Displays schon recht hoch. Eine weitere Verbesserung mit dem theoretischen Faktor drei erreicht man durch gezielte Ansteuerung der einzelnen, nebeneinander angeordneten Subpixel in den Farben Rot, Grün und Blau. Ermöglicht wird dies durch die um etwa eine Größenordnung geringere Farbauflösung des menschlichen visuellen Systems im Vergleich zur Helligkeitsauflösung. Somit gelingt die Implementierung einer Subpixel-Filterung, welche entsprechend den physiologischen Gegebenheiten mit dem in Luminanz und Chrominanz trennenden YUV-Farbmodell arbeitet. Weiterhin erweist sich eine Schrägstellung der Linsen im Verhältnis von 1:6 als günstig. Farbstörungen werden minimiert, und die Schärfe der Bilder wird durch eine weniger systematische Vergrößerung der technologisch unvermeidbaren Trennelemente zwischen den Subpixeln erhöht. Der Grad der Schrägstellung ist frei wählbar. In diesem Sinne ist die Filterung als adaptiv an den Neigungswinkel zu verstehen, obwohl dieser Wert für einen konkreten 3-D-Monitor eine Invariante darstellt. Die zu maximierende Zielgröße ist der Parameter Perspektiven-Pixel als Produkt aus Anzahl der Perspektiven N und der effektiven Auflösung pro Perspektive. Der Idealfall einer Verdreifachung wird praktisch nicht erreicht. Messungen mit Hilfe von Testbildern sowie Schrifterkennungstests lieferten einen Wert von knapp über 2. Dies ist trotzdem als eine signifikante Verbesserung der Qualität der 3-D-Darstellung anzusehen. In der Zukunft sind weitere Verbesserungen hinsichtlich der Zielgröße durch Nutzung neuer, feiner als TFT auflösender Technologien wie LCoS oder OLED zu erwarten. Eine Kombination mit der vorgeschlagenen Filtermethode wird natürlich weiterhin möglich und ggf. auch sinnvoll sein.
Resumo:
Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.
Resumo:
Das Forschungsfeld der vorliegenden Arbeit sind die Deutsch als Zweitsprache-Kurse, die im Zeitraum der Untersuchung (2002) noch vom Sprachverband Deutsch (vormals: für ausländische Arbeitnehmer) unterstützt wurden. Da sich mit diesem wichtigen und breiten Anwendungsgebiet der Fremdsprachendidaktik bisher nur wenige Studien beschäftigt haben, ist als Forschungsansatz eine explorativ-qualitative Herangehensweise gewählt worden. Die Kurse für erwachsene Einwanderer zeichnen sich durch eine große Heterogenität der Teilnehmenden aus, dementsprechend ist die zentrale Fragestellung der Studie, in der das professionelle Handlungswissen von Lehrenden erforscht wird, die Frage der Binnendifferenzierung. Ausgehend von bereits seit den siebziger Jahren des 20. Jahrhunderts vorliegenden allgemeindidaktischen Entwürfen zur Arbeit mit heterogenen Lerngruppen, in denen das Prinzip der Binnendifferenzierung entwickelt wird, werden im ersten Teil der Arbeit didaktische Möglichkeiten der Binnendifferenzierung im Deutsch als Zweitsprache-Unterricht entworfen. Ausgehend von diesem Vorverständnis ist dann die Befragung der Lehrenden durchgeführt worden, die im zweiten Teil der Arbeit dargestellt, ausgewertet und diskutiert wird. Dabei geht es nicht um eine Evaluation der Praxis anhand vorgefasster Kategorien, sondern im Gegenteil um eine explorative Erforschung des Problembereiches der Arbeit mit heterogenen Lerngruppen im Deutsch als Zweitsprache Unterricht. Anhand der am Material entwickelten Kategorien werden zentrale didaktische Gesichtspunkte herausgearbeitet, die charakteristisch für das Forschungsfeld Deutsch als Zweitsprache mit erwachsenen Einwanderern sind. Diese Kategorien sind nicht deckungsgleich mit denen, die durch die hermeneutisch orientierte Vorgehensweise im ersten Teil der Arbeit entwickelt werden konnten. Anhand dieser Diskrepanz wird das Theorie-Praxis-Verhältnis der didaktischen Forschung und Lehre aufgeschlüsselt und kritisch betrachtet. Ausblick der Arbeit ist der Verweis auf die Professionalisierungsdebatte und die Notwendigkeit einer praxisbezogenen Forschung, welche die Bedürfnisse von Lehrenden direkt einbezieht und im Sinne einer Aktionsforschung gleichzeitig zur Weiterbildung der Lehrenden beiträgt. Nur auf diesem Weg kann die Unterrichtspraxis unmittelbar weiter entwickelt werden. Aus der vorliegenden Studie ergeben sich viel versprechende Anknüpfungspunkte für kooperative Aktionsforschungsprojekte, die von den Lehrenden in den Interviews angeregt werden.
Resumo:
Der pH-Wert stellt in der Chemie, Physik, Biologie, Pharmazie und Medizin eine wichtige Meßgröße dar, da eine Vielzahl von Reaktionen durch den pH-Wert bestimmt wird. In der Regel werden zur pH-Wert-Messung Glaselektroden eingesetzt. Hierbei konnte der pH-sensitive Bereich zwar bis auf einige Mikrometer reduziert werden, aber die Gesamtab-messungen betragen immer noch 15-20 cm. Mit der Einführung miniaturisierter Reaktionsgefäße ist daher der Bedarf an miniaturisierten Sensoren enorm gestiegen. Um in solchen Gefäßen Reaktionsparameter wie z. B. den pH-Wert zu kontrollieren, müssen die Gesamtabmessungen der Sensoren verringert werden. Dies lässt sich mit Hilfe der Mikrostrukturtechnik von Silizium realisieren. Hiermit lassen sich Strukturen und ganze Systeme bis in den Nanometerbereich herstellen. Basierend auf Silizium und Gold als Elektrodenmaterial wurden im Rahmen dieser Arbeit verschiedene Interdigitalstrukturen hergestellt. Um diese Strukturen zur pH-Wert-Messungen einsetzen zu können, müssen sie mit einer pH-sensitiven Schicht versehen werden. Hierbei wurde Polyanilin, ein intrinsisch leitendes Polymer, aufgrund seine pH-abhängigen elektrischen und optischen Verhaltens eingesetzt. Die Beschichtung dieser Sensoren mit Polyanilin erfolgte vorwiegend elektrochemisch mit Hilfe der Zyklovoltammetrie. Neben der Herstellung reiner Polyanilinfilme wurden auch Kopolymerisationen von Anilin und seinen entsprechenden Aminobenzoesäure- bzw. Aminobenzensulfonsäurederivaten durchgeführt. Ergebnisse dazu werden vorgestellt und diskutiert. Zur Charakterisierung der resultierenden Polyanilin- und Kopolymerfilme auf den Inter-digitalstrukturen wurden mit Hilfe der ATR-FT-IR-Spektroskopie Spektren aufgenommen, die gezeigt und diskutiert werden. Eine elektrochemische Charakterisierung der Polymere erfolgte mittels der Zyklovoltammetrie. Die mit Polyanilin bzw. seinen Kopolymeren beschichteten Sensoren wurden dann für Widerstandsmessungen an den Polymerfilmen in wässrigen Medien eingesetzt. Polyanilin zeigt lediglich eine pH-Sensitivität in einem pH-Bereich von pH 2 bis pH 4. Durch den Einsatz der Kopolymere konnte dieser pH-sensitive Bereich jedoch bis zu einem pH-Wert von 10 ausgeweitet werden. Zur weiteren Miniaturisierung der Sensoren wurde das Konzept der interdigitalen Elektroden-paare auf Cantilever übertragen. Die pH-sensitive Zone konnte dabei auf 500 µm2 bei einer Gesamtlänge des Sensors (Halter mit integriertem Cantilever) von 4 mm reduziert werden. Neben den elektrischen pH-abhängigen Eigenschaften können auch die optischen Eigen-schaften des Polyanilins zur pH-Detektion herangezogen werden. Diese wurden zunächst mit Hilfe der UV-VIS-Spektroskopie untersucht. Die erhaltenen Spektren werden gezeigt und kurz diskutiert. Mit Hilfe eines Raster-Sonden-Mikroskops (a-SNOM, Firma WITec) wurden Reflexionsmessungen an Polyanilinschichten durchgeführt. Zur weiteren Miniaturisierung wurden Siliziumdioxidhohlpyramiden (Basisfläche 400 µm2) mit Spitzenöffnungen in einem Bereich von 50-150 nm mit Polyanilin beschichtet. Auch hier sollten die optischen Eigenschaften des Polyanilins zur pH-Wert-Sensorik ausgenutzt werden. Es werden erste Messungen an diesen Strukturen in Transmission diskutiert.
Resumo:
Nach 35 Jahren Entwicklungszeit wurde im Jahr 2004 in Shanghai die erste kommerzielle Anwendung des innovativen Magnetbahnsystems Transrapid in Betrieb genommen; in Deutschland konnte bislang keine Transrapid-Strecke realisiert werden, obwohl dieses System entsprechend den Ergebnissen einer vom damaligen Bundesverkehrsminister beauftragten Studie aus dem Jahr 1972 für den Einsatz in Deutschland entwickelt wurde. Beim Transrapid handelt es sich um eine echte Produkt-Innovation im Bahnverkehr und nicht um eine Weiterentwicklung oder Optimierung wie beim ICE, und ist somit als innovativer Verkehrsträger der Zukunft in die langfristige Entwicklung der Verkehrssysteme einzufügen. Die modernen HGV Bahnsysteme (Shinkansen/TGV/ICE) hingegen sind, ähnlich der Clipper in der Phase der Segelschifffahrt im Übergang zum Dampfschiff, letzte Abwehrentwicklungen eines am Zenit angekommenen Schienen-Verkehrssystems. Die Einführung von Innovationen in einen geschlossenen Markt stellt sich als schwierig dar, da sie zu einem Bruch innerhalb eines etablierten Systems führen. Somit wird in der vorliegenden Arbeit im ersten Teil der Themenkomplex Innovation und die Einordnung der Magnet-Schwebe-Technologie in diese langfristig strukturierten Abläufe untersucht und dargestellt. Das Transrapid-Projekt ist demzufolge in eine zeitstrukturelle Zyklizität einzuordnen, die dafür spricht, die Realisierung des Gesamtprojektes in eine Zeitspanne von 20 bis 30 Jahre zu verlagern. Im zweiten Teil wird auf der Basis einer regionalstrukturellen Analyse der Bundesrepublik Deutschland ein mögliches Transrapidnetz entworfen und die in diesem Netz möglichen Reisezeiten simuliert. Weiterhin werden die Veränderungen in den Erreichbarkeiten der einzelnen Regionen aufgrund ihrer Erschließung durch das Transrapidnetz simuliert und grafisch dargestellt. Die vorliegende Analyse der zeitlichen Feinstruktur eines perspektiven Transrapidnetzes ist ein modellhafter Orientierungsrahmen für die Objektivierung von Zeitvorteilen einer abgestimmten Infrastruktur im Vergleich zu real möglichen Reisezeiten innerhalb Deutschlands mit den gegebenen Verkehrsträgern Schiene, Straße, Luft. So würde der Einsatz des Transrapid auf einem entsprechenden eigenständigen Netz die dezentrale Konzentration von Agglomerationen in Deutschland fördern und im Durchschnitt annähernd 1 h kürzere Reisezeiten als mit den aktuellen Verkehrsträgern ermöglichen. Zusätzlich wird noch ein Ausblick über mögliche Realisierungsschritte eines Gesamtnetzes gegeben und die aufgetretenen Schwierigkeiten bei der Einführung des innovativen Verkehrssystems Transrapid dargestellt.
Gemeinsam selbständig. Eine Analyse kooperativen Handelns bei partnerschaftlichen Existenzgründungen
Resumo:
Im Zentrum der empirischen Arbeit steht einerseits eine besondere Form der Unternehmensgründung, andererseits eine besondere Form der Kooperation: die partnerschaftliche Existenzgründung. Das Forschungsvorhaben geht dem Ziel nach, Kooperationsprozesse in solchen unternehmerischen Partnerschaften zu explorieren. Um letztendlich eine praktisch nutzbare Grundlage für Maßnahmen zur Förderung beruflicher Selbständigkeit zu gewinnen, werden Merkmale und Rahmenbedingungen erfolgreicher partnerschaftlicher Existenzgründungen aufgezeigt. Die Empirie stützt sich auf qualitative Interviews mit Personen, die erfolgreich im Team ein Unternehmen gegründet haben und führen. In einem ersten Schritt werden anhand der Interviews konkrete alltägliche Kooperationsprozesse präzise beschrieben. Darauf aufbauend zeichnen tiefer gehende qualitative Analysen Entwicklungen auf einer abstrakteren Handlungsebene nach. Das Spektrum der Betrachtung umfasst neben individuellen Entwicklungen der Unternehmensgründer auch Prozesse auf der Teamebene sowie auf unternehmerischer Ebene. Zur Exploration der Handlungsprozesse werden die eigenen Ergebnisse durch ausgewählte theoretische Ansätze aus Kognitions- und Sozialpsychologie, aus soziologischer Handlungstheorie und Betriebswirtschaftslehre bereichert. Als relevant auf individueller Ebene erweisen sich insbesondere Prozesse der Identitätsentwicklung hin zu einer unternehmerisch-partnerschaftlichen Identität. Auf der Teamebene sind die Bewahrung und Überwindung von Eigensinn in der Interaktion sowie der Aufbau einer vertrauensvollen Beziehung zentral. Auf Unternehmensebene schließlich spielen Prozesse der Sinnfindung zwischen individuellen Erwerbsentwürfen und ökonomischen Strukturen, die Entstehung von Ordnung sowie Problemlösungsprozesse eine entscheidende Rolle. Insgesamt wird deutlich, dass der Weg in eine partnerschaftliche Selbständigkeit ein vielschichtiger Lernprozess ist, der aus der Praxis heraus entsteht, im Wesentlichen von den Gründern selbst organisiert und von gemeinsamen Reflexionen getragen wird. Diese Erkenntnisse stellen erste Ansatzpunkte dar zur Förderung beruflicher Selbständigkeit in Hochschule und im beruflichen Bildungswesen.
Resumo:
In rural areas of the Mekong Countries, the problem of electricity supplying rural communities is particularly alarming. Supplying power to these areas requires facilities that are not economically viable. However, government programs are under way to provide this product that is vital to community well being. A nation priority of Mekong Countries is to provide electrical power to people in rural areas, within normal budgetary constraints. Electricity must be introduced into rural areas in such a way that maximize the technical, economic and social benefit. Another consideration is the source of electrical generation and the effects on the natural environment. The main research purpose is to implement field tests, monitoring and evaluation of the PV-Diesel Hybrid System (PVHS) at the Energy Park of School of Renewable Energy Technology (SERT) in order to test the PVSH working under the meteorological conditions of the Mekong Countries and to develop a software simulation called RES, which studies the technical and economic performance of rural electrification options. This software must be easy to use and understand for the energy planner on rural electrification projects, to evaluate the technical and economic performance of the PVHS based on the renewable energy potential for rural electrification of the Mekong Country by using RES. Finally, this project aims to give guidance for the possible use of PVHS application in this region, particularly in regard to its technical and economic sustainability. PVHS should be promoted according to the principles of proper design and adequate follow up with maintenance, so that the number of satisfied users will be achieved. PVHS is not the only possible technology for rural electrification, but for the Mekong Countries it is one of the most proper choices. Other renewable energy options such as wind, biomass and hydro power need to be studied in future.