216 resultados para Semitische Sprachen
Resumo:
Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.
Resumo:
Der Berliner Professor Eduard Wechssler ist einer der wichtigsten und Vertreter der romanistischen „Kultur- und Wesenskunde“ Frankreichs in der Zeit von 1914 bis 1933. Die vorliegende Untersuchung rekonstruiert seine Biographie und Bibliographie und stellt sie in den politischen, intellektuellengeschichtlichen, bildungspolitischen und disziplingeschichtlichen Zusammenhang der Epoche. Sie fragt außerdem nach den Vorstellungen von Frankreich, die Wechssler verbreitete, nach dem Ziel seiner Bemühungen, das „Wesen des Deutschen und des Franzosen“ zu beschreiben und – unabdingbar – nach seiner tatsächlichen Beziehung zum Nationalsozialismus. Das umfassendste Werk Wechsslers, „Esprit und Geist“ (1927), eine Anleitung für Lehrer und Studenten und wichtigster Ausdruck der „Wesenskunde“, findet besondere Beachtung. Sein deklariertes Hauptziel war es, den Nachbarn und durch ihn wiederum sich selbst besser kennen zu lernen, um den Krieg, wenn auch verspätet, wenigstens auf anderem Niveau, doch noch zu gewinnen. „Esprit und Geist“ dient in dieser Studie als Grundlage für die Beschreibung von Genese und Entwicklung der Ideen Wechsslers durch sein schriftliches Gesamtwerk hindurch. Aufschlussreich sind in diesem Zusammenhang auch die Reaktionen auf dieses Buch, z.B. von Henri Lichtenberger, Félix Bertaux, Victor Klemperer, Benedetto Croce, Hermann Platz, Fritz Schalk u.a. Eine ausführliche Darstellung der „Conférences françaises“, zu denen Wechssler zwischen 1926 und 1934 französische Schriftsteller und Philosophen ans Romanische Seminar der Universität Berlin einlud, um den Studenten und sonstigen Interessierten das „junge Frankreich“ nahe zu bringen, zeigt die Bedeutung dieser Veranstaltung im Rahmen des kulturellen Austausches zur Zeit der Weimarer Republik. Abschließend findet Wechsslers Tätigkeit als Leiter des Instituts für Portugal und Brasilien zwischen 1936 und 1939 Erwähnung, das offiziell die Aufgabe hatte, die kulturellen Beziehungen zwischen Portugal und Brasilien auf der einen und Deutschland auf der anderen Seite zu pflegen.
Resumo:
Das Konzept der Mehrsprachigkeitsdidaktik wurde Mitte der neunziger Jahre des vergangenen Jahrhunderts von Franz-Joseph Meißner vor allem für den Tertiärsprachenunterricht entwickelt. Da der Lerner in diesem bereits über breitere Sprachlernerfahrungen und ein breiteres Sprachwissen verfügt als ein Lerner der ersten Fremdsprache, ist eine Verknüpfung vor- und nachgelernter Sprachen sowie des gesamten Sprachlernwissens, der so genannten language learning awareness, essentiell und lernökonomisch für den Erwerb einer weiteren Fremdsprache, besonders wenn es sich um einer Sprache gleichen Sprachfamilie handelt. So profitiert ein Schüler, der als dritte Fremdsprache Spanisch lernt, vor allem von bereits existierenden Französischkenntnissen. Demnach untersucht die vorliegende Arbeit den Beitrag der Mehrsprachigkeitsdidaktik für den Tertiärsprachenunterricht und fokussiert vor allem das Potential aktueller spanischer Lehrwerke für einen ebensolchen Unterricht. In Anlehnung an diese Analyse und die im theoretischen Teil der Arbeit dargelegten Besonderheiten eines mehrsprachigkeitsdidaktischen Tertiärsprachenunterrichts erfolgt in einem weiteren Schritt die Erstellung von Zusatzmaterialien für das Lehrwerk Encuentros, welche diese Anforderungen erfüllen.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
Das Leben in modernen Großstädten in Deutschland und Europa fordert heute mehr denn je sprachliche Kompetenzen von uns, wie sie vor einigen Jahrzehnten noch kaum erahnt wurden. Nicht selten findet man sich in einem Gewirr aus Sprachen wieder und realisiert schnell, dass die Europäische Union zumindest kulturell längst in unserem Alltag angekommen ist. Das Gespräch mit Touristen und Wahldeutschen aus aller Welt findet vorzugsweise auf Englisch statt, der Lingua Franca. Und hieraus ergibt sich ein großes Problem, eine zentrale Aufgabe der Schulbildung in dieser sich zunehmend globalisierenden Welt des einundzwanzigsten Jahrhunderts. Das Erlernen einer Sprache allein genügt nicht mehr, um die notwendigen Bürgerkompetenzen im kontemporären Europa zu erlangen. Die Sachfächer erweisen sich tendenziell immer mehr als gordische Knoten der Kompetenzorientierung, wenn sich etwa die Frage stellt, ob Schüler das dort erlangte Wissen auch wirklich international nutzbar machen können. In dieser Arbeit soll zunächst kurz auf einige grundlegende Merkmale und Ausprägungen bilingualen Unterrichts aufmerksam gemacht werden. Danach sollen im theoretischen Teil dieser Arbeit drei grundlegende Säulen eines bilingual ausgerichteten Physikunterrichts entworfen werden. Mithilfe empirischer Evidenz soll darauf aufbauend gezeigt werden, wie Sachfach und Sprache miteinander wechselwirken und welchen Einfluss die Sprache auf den Wissenserwerb hat (siehe Kapitel 3.1). Im folgenden Teil steht dann die Frage im Mittelpunkt, was mit Physikunterricht generell erzielt werden soll (siehe Kapitel 3.2). Der theoretische Teil wird schließlich mit der Betrachtung personeller Einflüsse durch die Schüler und Lehrer selbst abgerundet (siehe Kapitel 3.3). Auf der Grundlage dieser theoretischen Überlegungen, erfolgt schließlich die Analyse der im Zuge der Arbeit durchgeführten Lehrerinterviews. Mit der Formulierung der Forschungsfragen in Kapitel 4 sowie der genaueren Beschreibung der Untersuchungsmethodik in Kapitel 5, folgt in den Kapiteln 6 und 7 die Auswertungsmethodik sowie die Präsentation der so gewonnenen Ergebnisse. Im Kapitel 8 werden die Ergebnisse nochmals diskutiert und in Bezug auf die Forschungsfragen interpretiert. Schließlich fasst Kapitel 9 die Ergebnisse der Untersuchung zusammen und Kapitel 10 liefert ein Fazit der gesamten Arbeit.
Resumo:
Das hier frei verfügbare Skript und die Sammlung an Klausuren mit Musterlösungen aus den Jahren 2006 bis 2015 geht auf die gleichnamige Vorlesung im Bachelorstudiengang Informatik an der Universität Kassel zurück, die von Prof. Dr. Wegner und ab 2012 von Dr. Schweinsberg angeboten wurde. Behandelt werden die Grundlagen der eXtensible Markup Language, die sich als Datenaustauschsprache etabliert hat. Im Gegensatz zu HTML erlaubt sie die semantische Anreicherung von Dokumenten. In der Vorlesung wird die Entwicklung von XML-basierten Sprachen sowie die Transformierung von XML-Dokumenten mittels Stylesheets (eXtensible Stylesheet Language XSL) behandelt. Ebenfalls werden die DOM-Schnittstelle (Document Object Model) und SAX (Simple API for XML) vorgestellt.
Resumo:
Das hier frei verfügbare Skript gehört zu einer gleichnamigen Vorlesung, die von Prof. Dr. Lutz Wegner bis zum Wintersemester 1998/99 am damaligen Fachbereich 17 Mathematik/Informatik der Universität Kassel gehalten wurde. Thema ist die Einführung in die Programmierung, wie sie am Anfang fast aller Informatik-, Mathematik- und verwandter Ingenieurstudiengänge steht. Hier erfolgt die Einführung mit der Programmiersprache Pascal, die Niklaus Wirth (ehemals ETH Zürich) bereits 1968 entwickelte. Sie gilt als letzte Vertreterin der rein prozeduralen Sprachen und führt in der Regel zu sauber strukturierten Programmen. In der damals auf PCs weit verbreiteten Turbo Pascal Variante geht es auch um Objektorientierung, die charakteristisch für das heutige Programmierparadigma mit Java ist. Alte (und neu geschriebene) Pascal-Programme lassen sich problemlos mit den Free Pascal Open Source Compilern (www.freepascal.org) übersetzen und unter allen gängigen Betriebssystemen zur Ausführung bringen. Wer hierfür eine fachlich präzise und trotzdem vergleichsweise gut lesbare Einführung mit Hinweisen auf guten und schlechten Programmierstil braucht, wird hier fündig und kommt über den Stickwortindex am Ende auch schnell zu Einzelthemen wie Parameterübergabe oder das Arbeiten mit Pointern.
Resumo:
Das Erkenntnisinteresse der vorliegenden Arbeit besteht darin, im Rahmen einer explorativ-interpretativen Querschnittstudie vertiefte Einblicke in den Sprachgebrauch von mehrsprachigen Deutschlernenden am Beispiel von Verb-Nomen Kollokationen zu gewinnen. Unter Berücksichtigung der in diesem Zusammenhang bisher nicht untersuchten Sprachenkonstellation L1 Persisch, L2 Englisch, L3 Arabisch und L4 Deutsch sollen die von den Lernenden angewendeten lexikalischen Transferstrategien erforscht werden. Der Untersuchungsgegenstand sind die soziokognitiven Löseprozesse der ProbandInnen bei der dyadischen Bearbeitung von Kollokationsaufgaben. Zur Identifizierung der Transferphänomene und der TL-Strategien (Target Language-Strategien) werden Gesprächs-protokolle ausgewählter Dyaden analysiert. Überdies werden zwecks Rekonstruktion und Interpretation der Löseprozesse stimulated recall-Interviews mit den ProbandInnen herangezogen, wodurch die Datensets miteinander trianguliert werden. Zudem wird ermittelt, inwieweit ausgewählte Faktoren (Psychotypologie, Kompetenz in der Zielsprache und Kompetenz in den zuvor gelernten Sprachen) den Transferprozess beeinflussen. Hierzu dienen die Erkenntnisse aus begleitend durchgeführten Leitfadeninterviews und Sprachstandstests (TOEFL- und Arabischtest). Ferner wird der Arbeitsstil der ProbandInnen bei der dyadischen Aufgabenbearbeitung anhand des Fragebogens Style Analysis Survey von Oxford (1995) bestimmt. An der Studie, die im Deutschen Sprachinstitut Teheran durchgeführt wurde, nahmen 14 iranische Deutschlernende auf dem Niveau B2.1 und C2.2 teil. Sie wurden aufgrund ihrer mittels eines Fragebogens erhobenen Sprachlernbiografien ausgewählt. Die Gesprächsprotokolle der Dyadenarbeit und die Interviews wurden vollständig transkribiert bzw. transliteriert und anschließend qualitativ-interpretativ ausgewertet. Um ihre Wissenslücken bei der Bearbeitung der Kollokationsaufgaben zu kompensieren, setzten die ProbandInnen verschiedene inter- und intralinguale Strategien ein. Dabei ist der L1 Persisch und der L4 Deutsch insgesamt der größte Einfluss beizumessen. Diesbezüglich wird deutlich, dass zwischen Sprachniveau und Transferverhalten der Lernenden ein Zusammenhang besteht, insofern als fortgeschrittene Lernende stärker zu intralingualem Transfer neigen. Zudem lässt sich festhalten, dass ein Zusammenhang zwischen der empfundenen psychotypologischen Distanz und der Rolle der Muttersprache besteht, d.h. bei als größer empfundener psychotypologischer Distanz zwischen Persisch und Deutsch wird seltener aus dem Persischen transferiert. Überdies ist festzustellen, dass die L2 Englisch zwar gelegentlich mitaktiviert wird, jedoch nur eine untergeordnete Rolle spielt. Ein Einfluss der L3 Arabisch kann aus verschiedenen Gründen (u.a. geringes Niveau und mangelnder Gebrauch dieser Sprache) nicht festgestellt werden. Die vorliegende Arbeit versteht sich als ein Plädoyer für die Relevanz der Schulung von Kollokationen im Fremdsprachenunterricht, da die produktive Kollokationskompetenz der ProbandInnen auch auf einem hohen Niveau gravierende Defizite aufweist.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.
Resumo:
Die vorliegende Arbeit ist ein Beitrag zur Neologismenforschung und Neologismenlexikografie (Neografie). Wiewohl letztere eine Entwicklung der 2. Hälfte des 20. Jh. ist, erlebt sie in den slavischen Sprachen vor allem nach den politischen Veränderungen der Jahre 1989/90 einen enormen Auftrieb, der in der Herausgabe neuer Neologismenwörterbücher mündet. Mit der Entwicklung der lexikografischen Praxis hat die Wörterbuchtheorie bislang nicht Schritt halten können. Anliegen dieser Arbeit ist es, zur Schließung dieser Lücke im Bereich der Makro- und Mediostruktur beizutragen. Grundlage der Untersuchung bilden knapp 60 einsprachige und 11 zweisprachige Neologismenwörterbücher und -listen des Polnischen, Russischen, Tschechischen, Deutschen und punktuell des Bulgarischen.rnDie im ersten Schritt durchgeführte Analyse der lexikologischen und lexikografischen Charakteristika der Erscheinung 'Neologismus' zeigt, dass in der Linguistik weitestgehend Konsens über den Begriff 'Neologismus' herrscht und dass die lexikologische Diskussion des Neologismusbegriffs zahlreiche Impulse durch die praktische Neologismenlexikografie erhalten hat.rnIm Rahmen der lexikografischen Bestandsaufnahme und Bestimmung der Erscheinung 'Neologismenlexikografie' bzw. 'Neografie' wird ein Modell entwickelt, das erlaubt, von einer Neografie im weiten und einer im engen Sinne, also von einem Zentrum und einer Peripherie der Neografie, zu sprechen. Die Zielsetzungen von Neologismenwörterbüchern sind primär, den neuen Wortschatz schnell und ausführlich zu registrieren und lexikografisch zu beschreiben, um so der Allgemeinlexikografie, der Forschung sowie der interessierten Öffentlichkeit entsprechende Informationen über die neue Lexik zeitnah zur Verfügung zu stellen.rnDie Untersuchung der Neologismenforschung und Neologismenlexikografie des Polnischen ergibt, dass der Neologismusbegriff in der polnischen Linguistik ähnlich wie in den übrigen untersuchten Sprachen betrachtet wird. Im Bereich der Neografie weist das Polnische zwar wichtige lexikografische Vorarbeiten auf, doch erst die Form der Bearbeitung von Neologismen im gerade entstehenden elektronischen Großwörterbuch des Polnischen und im geplanten einsprachigen Neologismenwörterbuch wird zeigen, ob es zu einer "Emanzipation" der polnischen Neografie gegenüber der Allgemeinlexikografie gekommen ist.rnDie Diskussion der makro- und mediostrukturellen Fragen zeigt, dass Aspekte wie Zusammenstellung der Wörterbuchbasis und die Kriterien für die Stichwortauswahl sowohl für gedruckte wie elektronische Neologismenwörterbücher dieselbe Geltung haben. Als wesentlich erweist sich in der Neografie das Aufzeigen der komplexen lexikalisch-semantischen Verflechtungen der neuen Wörter untereinander und mit etablierten Lexemen. Hier ergeben sich für die Neografie durch das elektronische Medium beträchtliche Möglichkeiten. Ein großes Potential stellen auch die einfachere Verknüpfbarkeit von Neologismen mit anderen lexikografischen und nicht-lexikografischen Ressourcen sowie die Entwicklung von individuellen Abfragemöglichkeiten über Drop-down-Menüs dar. Das elektronische Medium eröffnet auch die Option, auf die Herausgabe von Neologismenwörterbüchern zu verzichten und den neuen Wortschatz ausschließlich im Rahmen von elektronischen Allgemeinwörterbüchern zeitnah zu präsentieren – Voraussetzung hierfür ist allerdings eine durchgehende chronologische Markierung des Wortschatzes.
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
Diese Masterarbeit entstand im Rahmen des Projekts Language Toolkit. Die Haupttätigkeit meines Praktikums lag in der Lokalisierung der Website von Remedia ins Deutsche. Zu lokalisieren waren die in Kap. 1 beschriebenen Seiten der Abteilung „Cosmoonda“ zu den von der gleichnamigen Forschungsgruppe des Unternehmens entwickelten bioenergetischen Geräten. Das zweite Kapitel umfasst eine Einführung in die Lokalisierung und bietet einen Überblick über ihre Geschichte. Am Ende des Kapitels wurden die Vorteile der elocalization behandelt und es wurde das neue Anforderungsprofil des Übersetzers beschrieben. Kap. 3 beinhaltet die Analyse der überwiegenden Sprachfunktionen sowie der Textsorten und -typen zum Zweck der bestmöglichen Übertragung der Kommunikationsabsicht des Auftraggebers. Zur Festlegung der optimalen Übersetzungsstrategie von Werbetexten tragen unterschiedliche Faktoren bei, wie z.B. die Säulen des Marketing-Mix, die im vierten Kapitel in Bezug auf die Standardisierung oder Lokalisierung von Werbebotschaften analysiert wurden. Im vorliegenden Zusammenhang spielt die Positionierung eine ausschlaggebende Rolle, weil bioenergetische Geräte einen unterschiedlichen Lebenszyklus in Ausgangs- und Zielmarkt erleben. Anhand von konkreten Beispielen wurde im fünften Kapitel gezeigt, wie die Sprachen der Unternehmen, die ähnliche Produkte und Dienstleistungen anbieten, sich auch aufgrund von kognitiven, temporellen und pragmatischen Faktoren unterscheiden. Kap. 6 enthält eine Beschreibung der praktischen Schritte des Lokalisierungsprozesses (Dokumentationsphase sowie Erstellung und Analyse von Korpora). Der vorletzte Teil bietet einen Überblick über die Komponenten sowie die Vor- und Nachteile der Nutzung von CMS. Im letzten Teil der Arbeit habe ich mich mit den translatorischen Problemen und ihren Lösungen (durch AT-Fehler verursachte evidente Translationsprobleme, Strategien zur Wiedergabe von Produktnamen, Äquivalenzen zwischen AT und ZT) auseinandergesetzt.