54 resultados para Vergleichende Sprachwissenschaft
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Arbeitszeitpolitik und Arbeitszeitgestaltung haben seit dem Tarifkompromiss im Jahre 1984 in der Metall-, und Elektroindustrie in der politischen und wissenschaftlichen Diskussion einen immensen Bedeutungszuwachs erfahren. Die Forderungen nach einer flexibleren Arbeitszeitgestaltung haben zeitgleich sowohl aus der Globalisierungsdiskussion und der Debatte um die Wettbewerbsfähigkeit des "Wirtschaftsstandorts Deutschland" heraus wie auch aus beschäftigungspolitischen Gründen neuen Auftrieb bekommen. Die Diskussion um die Arbeitszeit ist gleichzeitig von verschiedenen, meist gegensätzlichen Interessen geprägt: Auf der Beschäftigtenseite zielt die Arbeitszeitflexibilisierung nach wie vor auf Zeitsouveränität: d.h. auf eine bessere Vereinbarkeit der Arbeitszeit mit allen Aktivitäten außerhalb der Arbeitszeit ab. Demgegenüber stellt die Arbeitgeberseite den betriebswirtschaftlichen Aspekt in den Vordergrund. D.h. die Anpassung der Arbeitszeit an den tatsächlichen Arbeitsanfall. So soll durch aufeinander abgestimmte Gestaltung von Betriebszeit und Arbeitszeit die Erhöhung der Produktivität und die Sicherung der Wettbewerbsfähigkeit erzielt werden. Durch diesen Trend verlor das sog. Normalarbeitsverhältnis an Allgemeingültigkeit und die Flexibilisierung der Arbeitszeiten nahm seit langem kontinuierlich zu. Folge ist, dass mittlerweile eine breite Palette von Arbeitszeitmodellen existiert, in denen die gesetzlich und vertraglich vereinbarte Wochenarbeitszeit in den Dimensionen Lage, Länge und Verteilung flexibilisiert wird. Auch die Tarifverhandlungen und Auseinandersetzung der Tarifparteien zur Arbeitszeitpolitik sind dadurch gekennzeichnet, dass die Arbeitszeitflexibilisierung und Verlagerung der Tarifpolitik auf betriebliche Ebene einen Bedeutungszuwachs bekam und die Meinungsführerschaft in Sachen Arbeitszeitgestaltung von der IG Metall zu Gesamtmetall wechselte. Ziel der vorliegenden Dissertation war es, anhand einer empirisch-historischen Untersuchung über Einstellungen sowie Strategien von Gesamtmetall und IG Metall die Gestaltungsspielräume flexibler Arbeitszeitmodelle zu bestimmen und gleichzeitig die Defizite herauszuarbeiten. Die Untersuchung gründete sich in erster Linie auf die Dokumentenanalyse von Stellungnahmen der Gesamtmetall und IG-Metall-Leitungsgremien sowie Primär- und Sekundäranalyse von Befragungen der Beschäftigten. Die leitende Frage der Untersuchung war, ob es den Arbeitgeberverbänden und den Gewerkschaften gelingen konnte, die Erfordernisse eines Betriebes und die Belange der Beschäftigten weitgehend in Übereinstimmung zu bringen? Und (wenn ja) unter welchen Voraussetzungen die neuen flexiblen Arbeitszeitsysteme mit den betrieblichen und außerbetrieblichen Interessen der Beschäftigten zu vereinbaren sind. Den Hintergrund für diese Zielerreichung bildete der gesellschaftliche Konflikt zwischen Arbeit und Kapital. Denn die Schwierigkeit bzw. Komplexität lag in der Frage, wie die unterschiedlichen Interessen, die sich in der industriekapitalistischen Gesellschaft durch den Gegensatz "Kapital" und "Arbeit" bestimmen lassen, zu vereinbaren waren bzw. sind.
Resumo:
Die vorliegende Arbeit liefert erstmals einen umfassenden Überblick über die molekulare Epidemiologie von Methicillin resistenten Staphylococcus aureus (MRSA) eines nordhessischen Krankenhauses inklusive seines Umfeldes und deren Entwicklung in einem Zeitraum von fünf Jahren. Von besonderer Bedeutung ist, dass die MRSA-Stämme hierfür nicht nur anhand ihrer SCCmec-Region (staphylococcal cassette chromosome) typisiert wurden, sondern eine weitergehende Charakterisierung auf Grund der Bestimmung des Vorkommens von Antibiotikaresistenz- und Toxingenen, sowie Plasmiden erfolgte. Dabei wurde ein neuer SCCmec-Typ entdeckt und charakterisiert und weitere noch unbekannte SCCmec-Elemente beschrieben. Bei der Charakterisierung der MRSA-Kollektive konnten bzgl. aller untersuchten Eigenschaften im Laufe der Zeit signifikante Veränderungen beobachtet werden. Am deutlichsten waren diese Unterschiede zwischen dem ältesten Kollektiv aus 1999 und allen nachfolgenden Kollektiven. Die Kollektive aus 2001, 2002, 2003 und 2004 zeigten untereinander größere Ähnlichkeiten, aber dennoch gleichzeitig eine tendenziell divergente Entwicklung einzelner Eigenschaften. Besonders auffallend war das dominante Auftreten von SCCmecIV mit 63-87% der Isolate eines Kollektivs ab 2001, gegenüber 16% in 1999. Weiterhin erfolgte eine markante Veränderung im Vorkommen einzelner Antibiotikaresistenzgene von 1999 bis 2004. So waren aacA-aphD und ermA bei MRSA aus 1999 mit 84% bzw. 90% deutlich häufiger als in allen Kollektiven der folgenden Jahre (aacA-aphD: max. 32%, ermA: max. 40%). Wohingegen ermC ein stets zunehmendes Vorkommen von 3% auf 67% über den Untersuchungszeitraum zeigte. Unkontinuierliches aber statistisch relevant vermehrtes Auftreten von tetM konnte bei Isolaten aus 1999 (40%) und 2004 (74%) nachgewiesen werden. Auch bei Toxingenen zeigten sich deutliche Unterschiede in der zeitlichen Verteilung. Ab 2001 zeigten alle Isolate wesentlich höhere Anteile an sec, seg und sei verglichen mit den MRSA aus 1999. So konnte sec im Kollektiv aus 1999 gar nicht nachgewiesen werden, in denen der Folgejahre mit 54-77%. Die Werte für seg und sei stiegen von 48% bzw. 41% in 1999 kontinuierlich auf über 90% in 2004. Die Häufigkeit von MRSA sowohl mit mehreren Resistenzgenen als auch die mit mehreren Toxingenen nahm im Laufe der Zeit zu und korrelierte mit dem Vorkommen von Plasmiden. Bezüglich seiner Korrelation mit den vorkommenden Plasmiden zeigte SCCmecIV im Erhebungszeitraum besonders deutlich eine Veränderung. So nahm über den Zeitraum der Beobachtung die Anzahl der Stämme die zusätzlich zu einem großen Plasmid ein weiteres kleines Plasmid besaßen signifikant zu. Auch beim Vergleich der SCCmec-Typen der MRSA-Isolate konnten Unterschiede bzgl. aller weiteren untersuchten Eigenschaften dargestellt werden. So zeigten z.B. alle SCCmecIIIA das sea-Gen, während dies bei allen anderen in der vorliegenden Arbeit untersuchten SCCmec-Typen nur vereinzelt vorkam. SCCmecII-Stämme wiesen sowohl die meisten Antibiotikaresistenz- als auch Toxingene auf. Es wurde ferner gezeigt, dass Stämme mit vielen Resistenzgenen auch eine hohe Anzahl Toxingene besaßen und dies im Zusammenhang mit einem erhöhten Plasmidgehalt stehen könnte. Aus den MRSA-Kollektiven isolierte Plasmide konnten aufgrund von Restriktionsanalysen als verwandt zu β-Laktamase-Plasmiden des Grundtyps pI524 und pI258 beschrieben werden. Der in vorliegender Arbeit gezeigte Zusammenhang zwischen der Anzahl von direct repeat units (dru) in der Hypervariablen Region (HVR) und dem SCCmec-Typ half den Unterschied zwischen SCCmecIV und SCCmecIVA, sowie die Sonderstellung des in vorliegender Arbeit erstmalig beschriebenen SCCmecIA/II darzustellen. Nicht alle Isolate konnten einem bekannten SCCmec-Typ zugeordnet werden, es handelt sich bei diesen Ausnahmen um weitere noch unbekannte und hier erstmalig beschriebene SCCmec-Typen. Aufgrund der vorliegenden Arbeit konnte ein neuer SCCmec-Typ definiert werden, namentlich der Typ SCCmecIA/II, der seit 1999 in der Region gehäuft vorkommt Die vorliegenden Untersuchungen zeigten somit, dass die Epidemiologie von MRSA der Region Nordhessen trotz bestehender Gemeinsamkeiten zur MRSA-Situation in ganz Deutschland auch Besonderheiten aufweist. Diese nun zu kennen kann einen Beitrag zur gezielten Verbesserung bisheriger Maßnahmen zur Ausbreitungskontrolle von MRSA in der nordhessischen Region leisten.
Resumo:
Als Intertextualität bezeichnet men die Interferenz und Interdependenz literarischer Texte und das daraus entstehende kommunikative Potential. Der ursprünglich von Kristeva stammende Begriff geht auf die Erkentnis zurück, dass Texte nicht in einem Vakuum entstehen und existieren, sondern immer sie beeinflussende Vorläufer haben, wie sie auch selbst spätere Texte beeinflussen. Dabei ist das Erkennen und Entwickeln von Intertextualitäten nicht allein auf den Verfasser beschränkt, sondern gehört auch zu den konstruktivistischen Tätigkeiten eines aufmerksamen Lesepublikums. In diesem Aufsatz werden drei Typen von Intertextualität unterschieden: Gattungs-Intertextualität, Archäologische Intertextualität und Schöpfungs-Intertextualität. Unter Gattungs-Intertextualität fasst man Texte mit gleichen Grundstrukturen, Erzählmustern und Motiven zusammen. Der Begriff Gattung meint dabei nicht die großen Gattungen wie Roman oder Short Story, sondern Untergattungen wie Utopien oder Robinsonaden, die hier beispielhaft diskutiert werden. Archäologische Intertextualität entstammt der Theorie Foucaults und entspricht dem Palimpsest-Begriff Genettes, nach dem eine oft wesentlich ältere Vorlage in einem Text als Hintergrund erkennbar wird. Als schöpferische Intertextualität wird die Entwicklung neuer, experimenteller Texte zur Autorenproduktivität aus gemachten Leseerfahrungen bezeichnet. Eine wichtige, im Text verwendete, Metapher ist die des Eisbergs, zu deren Erläuterung am Ende des Textes eine erläuternde Grafik angehängt ist.
Resumo:
Ausgehend von dem von Friedrich Edding geprägten Begriff der Schlüsselfähigkeit entwickelte Dieter Mertens Anfang der 1970er Jahre sein Konzept der Schlüsselqualifikationen. Damit suchte er Wege, Menschen so zu qualifizieren, dass sie ihnen übertragene berufliche Aufgaben, auch in einem sich rasch verändernden Umfeld, bewältigen können. In der vorliegenden Arbeit wird gezeigt, dass die Rezeption des Begriffs in verschiedenen Bildungsbereichen mit unterschiedlichen Intensitäten und Resultaten verlief. Am folgenreichsten war die Rezeption in der Berufsbildung. Von wenigen skeptischen Stimmen abgesehen, stieß das Konzept der Schlüsselqualifikationen auf positive Zustimmung und mehrere Umsetzungsversuche wurden unternommen. Diese führten allerdings zu einer Verlängerung der Liste der Schlüsselqualifikationen (die ursprünglich von Mertens als abschließbar angedacht war). Ein Konsens, was in der Berufsbildung als Schlüsselqualifikationen zu gelten hat, ist immer noch nicht in Sicht. In den allgemeinbildenden Schulen hingegen fand das Konzept keine große Beachtung. Zwar wurde hin und wieder auf den Begriff zurückgegriffen, um beispielsweise allgemein verbindliche Standards in der Schule zu thematisieren oder neuen Inhalten eine Legitimation zu verschaffen, dennoch griff die Debatte in der Schulpädagogik nicht nachhaltig. Gründe dafür liegen zum einen in der dem Konzept inhärenten berufsvorbereitenden Funktion, die der Idealvorstellung einer zweckfreien Bildung widerspricht, zum anderen in der relativ straffen und zentralisierten Gestaltung der Lehrpläne. Die vorliegende Arbeit setzt sich mit dem Konzept der Schlüsselqualifikationen im Hochschulbereich auseinander. Eine Untersuchung von ca. 130 deutsch- und englischsprachigen Arbeiten, die Schlüsselqualifikationen im Hochschulbereich zum Thema haben, belegt eine sehr große Heterogenität der zugrunde liegenden Vorstellungen und konkreten Modelle. Es wird gezeigt, dass die zwei wichtigsten Ordnungsschemata, die gelegentlich zur Abgrenzung der Schlüsselqualifikationen gegenüber anderen Bildungskomponenten herangezogen werden (nämlich die Taxonomie der Lernziele von Bloom und das Handlungskompetenzmodell von Roth in der Weiterentwicklung von Reetz) mit keinem kohärenten Rahmenwerk, das der Fülle der Modelle von Schlüsselqualifikationen im Hochschulbereich gerecht wäre, aufwarten können. Eine Alternative bietet eine diskursanalytische Perspektive foucaultscher Prägung. Begriffen als eine diskursive Formation, haben Modelle der Schlüsselqualifikationen ihre Gemeinsamkeit nicht in dem vermeintlich gemeinsamen Gegenstand. Demnach sind Schlüsselqualifikationen in der heutigen Hochschuldebatte keine Qualifikationen suis generis, die eine eigene Kategorie bilden, sondern eine Antwort auf die Herausforderungen, die die verschiedenartigen Veränderungen in und um Hochschulen mit sich bringen. Es lassen sich drei Kontexte identifizieren, in denen die Modelle der Schlüsselqualifikationen der Herausforderung zu begegnen versuchen: in der Gesellschaft im Allgemeinen, in der vor-universitären Bildung sowie in der Hochschulbildung und in der Berufswelt. In diesen Kontexten artikulieren die Modelle der Schlüsselqualifikationen verschiedene Dimensionen, um Gesellschafts-, Studier und Beschäftigungsfähigkeit der Studierenden zu fördern. Eine vergleichende Analyse der Debatten und Modelle der Schlüsselqualifikationen in der BRD und in England zeigt, dass diese drei Kontexte in beiden Ländern vorfindbar sind, jedoch deren inhaltliche Vorstellung und konkrete Umsetzung aufgrund der Partikularitäten des jeweiligen Hochschulsystems unterschiedliche Akzentuierungen erfahren. Anders als in der BRD betonen die Modelle der Förderung der Studierfähigkeit in England die Brückenkurse als Hilfestellung bei der Vorbereitung auf das Studium. Das hängt mit den uneinheitlichen Zugangsregelungen zum Hochschulstudium und der hierarchischen Struktur im englischen Hochschulsystem zusammen. Bei der Förderung der Beschäftigungsfähigkeit setzen die Modelle der Schlüsselqualifikationen in Deutschland, wo traditionell ein Hochschulstudium als berufsvorbereitend angesehen wird, den Akzent auf Praxisbezug des Studiums und auf Flexibilität. In England hingegen, wo sich das Studium per se nicht als berufsqualifizierend versteht, rücken die Modelle der Schlüsselqualifikationen den Übergang in den Arbeitsmarkt und das Karrieremanagement - subsumiert unter dem Konzept der employability - in den Vordergrund.
Resumo:
Der vorliegende Beitrag führt Möglichkeiten der Anwendung der Feldergrammatik auf die gesprochene Sprache am Beispiel des Feldes der Temporalität vor. Damit soll ein möglicher weiterer Theoriebaustein in die aktuelle Diskussion um eine Theorie der Grammatik der gesprochenen Sprache eingebracht werden.
Resumo:
In 7 Thesen werden grundsätzliche Überlegungen zu Möglichkeiten und Perspektiven der Erforschung historischer Nähesprachlichkeit vorgestellt. Die Thesen betreffen u.a. die Unterscheidung von historischer und universaler Nähesprachlichkeit sowie die Konsequenzen für Sprachgeschichts- und Gesprochene-Sprache-Forschung.
Resumo:
Die vorliegende Arbeit gliedert sich in die aktuelle Diskussion um eine grammatiktheoretische Verortung der gesprochenen Sprache ein. Zentrale These der Arbeit ist, dass eine Theorie der Grammatik der gesprochenen Sprache komplexen Anforderungen genügen muss, die nur durch eine Modellierung mehrerer interagierender Theoriebausteine bewältigt werden können. Im theoretischen Teil der Arbeit werden zwei solcher Theoriebausteine vorgestellt, die einen ersten Schritt auf dem Weg zu einem Gesamtbild der Theorie der Grammatik der gesprochenen Sprache darstellen sollen. Die theoretischen Überlegungen werden im praktischen Teil der Arbeit auf die viel diskutierte Frage der grammatischen Einheitenbildung gesprochener Sprache angewendet.
Resumo:
In der Arbeit wird eine Messgröße für die Mobilität im Personenverkehr formuliert und anhand dieser Messgröße eine vergleichende Bewertung von Szenarien der Siedlungs- und Verkehrsentwicklung vorgenommen. Mobilität im Sinne räumlicher Wahlmöglichkeiten sind die Freiheitsgrade der Menschen in der Auswahl ihrer räumlichen Ziele und Beziehungen. Mehr als das tatsächliche Verhalten unterliegen Wahlmöglichkeiten starken Einflüssen der Siedlungsstruktur. Die relevanten Siedlungsstrukturmerkmale werden zu zwei Hauptmerkmalen zusammengefasst, Lokale Urbanität und Regionale Geometrie, und ihre Ausprägungen zu fünf Leitbildern einer integrierten Entwicklung von Siedlung und Verkehr kombiniert: 1. Kompakte Stadt mit hoher lokaler Urbanität und großflächiger, sternförmiger Geometrie. 2. Städtenetz mit hoher lokaler Urbanität und kleinteiliger, netzförmiger Geometrie. 3. Autoland mit geringer lokaler Urbanität und großflächiger Geometrie. 4. Nivellierung mit mittlerer lokaler Urbanität und großflächiger sternförmiger Geometrie. 5. Differenzierung als ein kleinteiliges Nebeneinander von Städtenetz und Autoland bei nur schwacher gegenseitiger Vernetzung Die Leitbilder werden in einem mittelstädtischen Siedlungsraum in Ostwestfalen zu konkreten Szenarien für das Jahr 2050 entwickelt und die Wahlmöglichkeiten in diesen Szenarien berechnet: 1. In der Kompakten Stadt betragen die Wahlmöglichkeiten im Fußgänger-, Fahrrad- und öffentlichen Verkehr ca. das Zwanzigfache des Autolands und ca. das Fünffache des Nivellierungsszenarios. Selbst im Autoverkehr bietet die Kompakte Stadt ca. doppelt so große Wahlmöglichkeiten wie Autoland oder Nivellierung. Dieser Vergleich offenbart zugleich das verkehrliche Desaster der Trendentwicklung. 2. Der Vergleich sternförmiger Urbanität (Kompakte Stadt) mit netzförmiger Urbanität (Städtenetz) endet unentschieden. Die Mobilitätsvorteile hoher Urbanität lassen sich auch in kleinteiligen Strukturen und in allseitigen Siedlungsnetzen realisieren. 3. Die urbanen Szenarien Kompakte Stadt und Städtenetz erscheinen jedoch in der hier simulierten "Reinform" als planerisches Leitbild eher ungeeignet. Von größerer praktischer Relevanz ist der Vergleich der Szenarien Nivellierung und Differenzierung. In diesem Vergleich erweist sich die intensive Stadt-Umland-Verflechtung und die dafür notwendige Angleichung (Nivellierung) der Verkehrsangebote zwischen urbanen und suburbanen Siedlungsstrukturen als nachteilig. Demgegenüber erreicht das kleinteilige Nebeneinander von urbanem Städtenetz und suburbanem Autoland im Szenario Differenzierung sogar ein ähnliches Niveau räumlicher Wahlmöglichkeiten wie das Städtenetz, trotz wesentlich geringerer urbaner Siedlungsstrukturanteile. Es zeigt somit auch, dass die großen Mobilitätsvorteile urbaner Strukturen bereits bei einer teilweisen (Re-)Urbanisierung erzielt werden können. Suburbanisierung, Autoverkehrswachstum und Stadt-Umland-Verflechtung sind nicht zuletzt Folge von mindestens 70 Jahre alten Leitbildern in Planung und Politik. Die für das Differenzierungs-Szenario notwendige Phase teilräumlicher (Re-)Urbanisierung setzt weder massive Planungszwänge "gegen den Markt" noch große Wachstumsschübe voraus. Notwendig ist aber die Überprüfung vieler weiterer Politikfelder, die auf Siedlung und Verkehr einwirken. Nur geänderte Anreize und Spielregeln können die laufenden kleinen Standort- und Verkehrsentscheidungen in eine neue, effizientere Richtung lenken. Die Neubewertung der Standorte und Verkehrsangebote vergrößert dabei auch die Entwicklungsmasse. Ein frühzeitiges, langsames Umsteuern vermeidet ernsthafte Krisen mit möglicherweise nicht mehr beherrschbaren Verkehrskosten.
Resumo:
In der Vergangenheit verfolgte die Wasserwirtschaft insbesondere das Ziel, Wasser als Ressource zu nutzen und vom Wasser ausgehende Gefahren, wie zum Beispiel Hochwasser, abzuwehren oder zu vermindern. In den letzten etwa dreißig Jahren stellte sich jedoch eine Veränderung des Verständnisses der Wasserwirtschaft ein. Mit der Einführung des Wasserhaushaltsgesetzes rückte der ökologisch orientierte Gewässerschutz mehr in den Vordergrund, der sich zu einem ganzheitlich gedachten Ansatz entwickelte. Am 22.12.2000 trat die EG-Wasserrahmenrichtlinie der Europäischen Gemeinschaft in Kraft (EG-WRRL). Die Wasserrahmenrichtlinie fordert erstmalig, dass auf der Grundlage eines ökosystemaren Ansatzes ein „guter ökologischer Zustand“ erreicht werden soll. Da der „gute ökologische Zustand“ noch nicht abschließend definiert ist, werden innerhalb Europas derzeit bestehende Klassifizierungssysteme als Indikator für die Bedingungen, denen ein biologischer Zustand zugeordnet wird, benutzt. Die Abschätzung der Wahrscheinlichkeit einer Zielerreichung kann also nur ein Prozess sein, der anhand erster Kriterien vorgenommen und später iterativ verfeinert wird. Dabei ist es von Bedeutung, das Risiko einer Fehleinschätzung zu minimieren, um einerseits sicherzustellen, dass alle hinsichtlich der Zielerreichung unsicheren Gewässer tatsächlich erfasst werden, andererseits aber auch zu verhindern, dass Ressourcen beim Monitoring und möglicherweise bei der Durchführung von Maßnahmen unnötig verbraucht werden. Durch eine Verfeinerung der Kriterien kann dieses Risiko verringert werden. Für die Fließgewässer in Deutschland stellen insbesondere Veränderungen der Gewässermorphologie und Belastungen aufgrund von Nährstoffeinträgen, die besonders in abflussschwachen Gewässerabschnitten häufig zu einer Eutrophierung führen, Probleme dar, die es abzumildern gilt (BMU 2005), um die Ziele der EG-Wasserrahmenrichtlinie erreichen zu können. Vor diesem Hintergrund hat die vorliegende Arbeit zum Ziel, einen methodischen Beitrag zur Risikoanalyse anthropogener Belastungen zu leisten. Im Mittelpunkt standen dabei die folgenden Punkte: 1. Darstellung der Anforderungen bei der Gewässerbewirtschaftung nach Einführung der Europäischen Wasserrahmenrichtlinie. 2. Dokumentation, Analyse und Vergleich der Kriterien und Verfahren im europäischen Kontext(Aufzeigen der relevanten Gewässerbelastungen in Deutschland wie im europäischen Ausland einschließlich eines Vergleichs der Methoden und Datengrundlagen zur Beurteilung signifikanter Gewässerbelastungen). 3. Vergleichende Analyse der ökologischen Bedeutung der im Umweltmanagement angewandten Methoden und Kriterien zur Risikoanalyse hinsichtlich Strukturgüte und Gewässereutrophierung an ausgewählten Fallbeispielen in Hinblick auf Sensitivität, Skalenabhängigkeit sowie weitere Unsicherheiten 4. Entwicklung eines methodischen Vorschlags für eine verbesserte Vorgehensweise bei der verursacherbezogenen Beurteilung der Belastungen vor dem Hintergrund eines effektiven Einsatzes der finanziellen Ressourcen.
Resumo:
Die Autoren, die Deutschland während der Herrschaft der Nationalsozialisten verlassen mussten, konnten nicht mehr bei einem etablierten Verlag in Deutschland veröffentlichen. Es war für viele Autoren schwer, ihre Manuskripte in einem Verlag im Exil zu veröffentlichen. Eine Reihe von ihnen entschloss sich daher, ihre literarischen Werke in den jeweiligen Exilländern selbst zu publizieren. Sogar bekannte Autoren wie Oskar Maria Graf, Else Lasker-Schüler, Hans Marchwitza und Paul Zech fungierten als Selbstverleger. Nach den Angaben der Deutschen Bibliothek existierten in den Jahren zwischen 1933 und 1945 siebzig Exilselbstverlage. Die Werke aus den Exilselbstverlagen blieben in der Öffentlichkeit weitgehend unbekannt und auch literaturwissenschaftliche Untersuchungen widmeten sich ihnen bisher kaum. Die Bedeutung des Wortes Selbstverlag lässt sich definieren als ’Veröffentlichung durch sich selbst‘. Damit ist eine grundlegende Eigenschaft festgelegt: Im Selbstverlag erfolgt die Produktion und Verbreitung eines Werkes durch den Autor persönlich. Die Gruppe der Selbstverleger setzte sich während des Exils aus Berufen wie Graphiker, Journalisten, Künstler, Militärberater, Parteifunktionäre, Pädagogen, Philosophen, Politiker, Professoren, Psychologen, Publizisten, Schriftsteller und Wissenschaftler zusammen. Vor allem in Europa erreichte im Jahr 1935 die Zahl der Selbstverlage mit elf einen Höchststand. Nach dem Ende des zweiten Weltkrieges im Jahre 1945 sank ihre Anzahl auffallend stark auf drei. In den USA, Israel und Südamerika entstanden in den Jahren 1939 bis 1945 neue Selbstverlage. Insgesamt existierten sie in 15 Ländern. Das Hauptmerkmal der Selbstverlage ist eine direkte Beziehung zwischen Autor und Leser. Die Leserschaft der Selbstverlage war auf einen kleinen Kreis von Freunden, Bekannten und Verwandten reduziert. Während des Exils wurden insgesamt 105 Werke in Selbstverlagen veröffentlicht. Dort wurden 32 Gedichtsbände, 9 Erzählungen und 5 Dramen publiziert. Insgesamt gesehen stellte die Selbstveröffentlichung der Exilautoren eine besondere Form des literarischen Lebens im Exil dar.