12 resultados para Romanische Sprachen
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
Der Berliner Professor Eduard Wechssler ist einer der wichtigsten und Vertreter der romanistischen „Kultur- und Wesenskunde“ Frankreichs in der Zeit von 1914 bis 1933. Die vorliegende Untersuchung rekonstruiert seine Biographie und Bibliographie und stellt sie in den politischen, intellektuellengeschichtlichen, bildungspolitischen und disziplingeschichtlichen Zusammenhang der Epoche. Sie fragt außerdem nach den Vorstellungen von Frankreich, die Wechssler verbreitete, nach dem Ziel seiner Bemühungen, das „Wesen des Deutschen und des Franzosen“ zu beschreiben und – unabdingbar – nach seiner tatsächlichen Beziehung zum Nationalsozialismus. Das umfassendste Werk Wechsslers, „Esprit und Geist“ (1927), eine Anleitung für Lehrer und Studenten und wichtigster Ausdruck der „Wesenskunde“, findet besondere Beachtung. Sein deklariertes Hauptziel war es, den Nachbarn und durch ihn wiederum sich selbst besser kennen zu lernen, um den Krieg, wenn auch verspätet, wenigstens auf anderem Niveau, doch noch zu gewinnen. „Esprit und Geist“ dient in dieser Studie als Grundlage für die Beschreibung von Genese und Entwicklung der Ideen Wechsslers durch sein schriftliches Gesamtwerk hindurch. Aufschlussreich sind in diesem Zusammenhang auch die Reaktionen auf dieses Buch, z.B. von Henri Lichtenberger, Félix Bertaux, Victor Klemperer, Benedetto Croce, Hermann Platz, Fritz Schalk u.a. Eine ausführliche Darstellung der „Conférences françaises“, zu denen Wechssler zwischen 1926 und 1934 französische Schriftsteller und Philosophen ans Romanische Seminar der Universität Berlin einlud, um den Studenten und sonstigen Interessierten das „junge Frankreich“ nahe zu bringen, zeigt die Bedeutung dieser Veranstaltung im Rahmen des kulturellen Austausches zur Zeit der Weimarer Republik. Abschließend findet Wechsslers Tätigkeit als Leiter des Instituts für Portugal und Brasilien zwischen 1936 und 1939 Erwähnung, das offiziell die Aufgabe hatte, die kulturellen Beziehungen zwischen Portugal und Brasilien auf der einen und Deutschland auf der anderen Seite zu pflegen.
Resumo:
Die Fachgruppe AFS (früher Fachgruppe 0.1.5) der Gesellschaft für Informatik veranstaltet seit 1991 einmal im Jahr ein Treffen der Fachgruppe im Rahmen eines Theorietags, der traditionell eineinhalb Tage dauert. Seit dem Jahr 1996 wird dem eigentlichen Theorietag noch ein eintägiger Workshop zu speziellen Themen der theoretischen Informatik vorangestellt. In diesem Jahr wurde der Theorietag vom Fachgebiet "Theoretische Informatik" des Fachbereichs Elektrotechnik/Informatik der Universität Kassel organisiert. Er fand vom 29.9. bis 1.10.2010 in Baunatal bei Kassel statt. Dabei stand der begleitende Workshop unter dem allgemeinen Thema "Ausgewählte Themen der Theoretischen Informatik". Als Vortragende für diesen Workshop konnten Carsten Damm (Göttingen), Markus Holzer (Giessen), Peter Leupold (Kassel), Martin Plátek (Prag) und Heribert Vollmer (Hannover) gewonnen werden. Das Programm des eigentlichen Theorietags bestand aus 20 Vorträgen sowie der Sitzung der Fachgruppe AFS. In diesem Band finden sich die Zusammenfassungen aller Vorträge sowohl des Workshops als auch des Theorietags. Desweiteren enthält er das Programm und die Liste aller Teilnehmer.
Resumo:
In dieser Arbeit wird ein generisches Modell fuer synchrone Gruppenarbeit auf gemeinsamen Informationsraeumen entwickelt. Fuer die Entwicklung dieses Modells muessen die Grundfunktionen fuer Anwendungen der synchronen Gruppenarbeit realisiert werden. Neben der Modellierung des Datenraumes (Datenmodell) und der operationellen Schnittstelle (Interaktionsmodell), muessen Mechanismen fuer die Darstellung der Aktivitaeten der Gruppenmitglieder auf dem Informationsraum (Awareness), sowie fuer die Synchronisierung gleichzeitiger Zugriffe verschiedener Benutzer auf dem Datenraum realisiert werden (Nebenlaeufgkeitskontrolle). Das Grundproblem bei der Loesung der Nebenlaeufigkeit liegt bei der Aufgabe der Isolation aus den klassischen ACID-Transaktionen zu gunsten von Awareness. Die rapide Entwicklung von Techniken der mobilen Kommunikation ermoeglicht den Einsatz dieser Geraete fuer den Zugriff auf Daten im Internet. Durch UMTSund WLAN-Technologien koennen Mobilgeraete fuer Anwendungen ueber die reine Kommunikation hinaus eingesetzt werden. Eine natuerliche Folge dieser Entwicklung sind Anwendungen fuer die Zusammenarbeit mehrerer Benutzer. In der Arbeit wird daher auf die Unterstuetzung mobiler Geraete besonderen Wert gelegt. Die Interaktion der Benutzer auf den gemeinsamen Datenraum wird durch einfache Navigationsoperationen mit einem Cursor (Finger) realisiert, wobei der Datenraum durch XML-Dokumente dargestellt wird. Die Visualisierung basiert auf der Transformierung von XML-Dokumenten in andere XML-basierte Sprachen wie HTML oder SVG durch XSLT-Stylesheets. Awareness-Informationen werden, aehnlich dem Fokus/Nimbus-Modell, von der Interaktion der Benutzer und der Ermittlung der sichtbaren Objekte bei dem Benutzer hergeleitet. Fuer eine geeignete Kontrolle der Nebenlaeufigkeit wurde der Begriff der visuellen Transaktion eingefuehrt, wo die Auswirkungen einer Transaktion von anderen Benutzern (Transaktionen) beobachtet werden koennen. Die Synchronisierung basiert auf einem Sperrverfahren und der Einfuehrung der neuen W-Sperre und der Grundoperationen readV und writeV. Das Modell (Groupware-Server) wird in der Arbeit in einem Prototyp implementiert. Weiterhin wird eine Java-Anwendung sowohl auf einem Desktop PC als auch auf einem Pocket PC (iPAQ 3970) implementiert, welche die Einsetzbarkeit dieses Prototyps demonstriert.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Die vorliegende Arbeit behandelt Restartautomaten und Erweiterungen von Restartautomaten. Restartautomaten sind ein Werkzeug zum Erkennen formaler Sprachen. Sie sind motiviert durch die linguistische Methode der Analyse durch Reduktion und wurden 1995 von Jancar, Mráz, Plátek und Vogel eingeführt. Restartautomaten bestehen aus einer endlichen Kontrolle, einem Lese/Schreibfenster fester Größe und einem flexiblen Band. Anfänglich enthält dieses sowohl die Eingabe als auch Bandbegrenzungssymbole. Die Berechnung eines Restartautomaten läuft in so genannten Zyklen ab. Diese beginnen am linken Rand im Startzustand, in ihnen wird eine lokale Ersetzung auf dem Band durchgeführt und sie enden mit einem Neustart, bei dem das Lese/Schreibfenster wieder an den linken Rand bewegt wird und der Startzustand wieder eingenommen wird. Die vorliegende Arbeit beschäftigt sich hauptsächlich mit zwei Erweiterungen der Restartautomaten: CD-Systeme von Restartautomaten und nichtvergessende Restartautomaten. Nichtvergessende Restartautomaten können einen Zyklus in einem beliebigen Zustand beenden und CD-Systeme von Restartautomaten bestehen aus einer Menge von Restartautomaten, die zusammen die Eingabe verarbeiten. Dabei wird ihre Zusammenarbeit durch einen Operationsmodus, ähnlich wie bei CD-Grammatik Systemen, geregelt. Für beide Erweiterungen zeigt sich, dass die deterministischen Modelle mächtiger sind als deterministische Standardrestartautomaten. Es wird gezeigt, dass CD-Systeme von Restartautomaten in vielen Fällen durch nichtvergessende Restartautomaten simuliert werden können und andererseits lassen sich auch nichtvergessende Restartautomaten durch CD-Systeme von Restartautomaten simulieren. Des Weiteren werden Restartautomaten und nichtvergessende Restartautomaten untersucht, die nichtdeterministisch sind, aber keine Fehler machen. Es zeigt sich, dass diese Automaten durch deterministische (nichtvergessende) Restartautomaten simuliert werden können, wenn sie direkt nach der Ersetzung einen neuen Zyklus beginnen, oder ihr Fenster nach links und rechts bewegen können. Außerdem gilt, dass alle (nichtvergessenden) Restartautomaten, die zwar Fehler machen dürfen, diese aber nach endlich vielen Zyklen erkennen, durch (nichtvergessende) Restartautomaten simuliert werden können, die keine Fehler machen. Ein weiteres wichtiges Resultat besagt, dass die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt den Zyklus beenden, genau die deterministischen kontextfreien Sprachen erkennen, wohingegen die deterministischen monotonen nichtvergessenden Restartautomaten mit Hilfssymbolen ohne diese Einschränkung echt mehr, nämlich die links-rechts regulären Sprachen, erkennen. Damit werden zum ersten Mal Restartautomaten mit Hilfssymbolen, die direkt nach dem Ersetzungsschritt ihren Zyklus beenden, von Restartautomaten desselben Typs ohne diese Einschränkung getrennt. Besonders erwähnenswert ist hierbei, dass beide Automatentypen wohlbekannte Sprachklassen beschreiben.
Resumo:
Das Konzept der Mehrsprachigkeitsdidaktik wurde Mitte der neunziger Jahre des vergangenen Jahrhunderts von Franz-Joseph Meißner vor allem für den Tertiärsprachenunterricht entwickelt. Da der Lerner in diesem bereits über breitere Sprachlernerfahrungen und ein breiteres Sprachwissen verfügt als ein Lerner der ersten Fremdsprache, ist eine Verknüpfung vor- und nachgelernter Sprachen sowie des gesamten Sprachlernwissens, der so genannten language learning awareness, essentiell und lernökonomisch für den Erwerb einer weiteren Fremdsprache, besonders wenn es sich um einer Sprache gleichen Sprachfamilie handelt. So profitiert ein Schüler, der als dritte Fremdsprache Spanisch lernt, vor allem von bereits existierenden Französischkenntnissen. Demnach untersucht die vorliegende Arbeit den Beitrag der Mehrsprachigkeitsdidaktik für den Tertiärsprachenunterricht und fokussiert vor allem das Potential aktueller spanischer Lehrwerke für einen ebensolchen Unterricht. In Anlehnung an diese Analyse und die im theoretischen Teil der Arbeit dargelegten Besonderheiten eines mehrsprachigkeitsdidaktischen Tertiärsprachenunterrichts erfolgt in einem weiteren Schritt die Erstellung von Zusatzmaterialien für das Lehrwerk Encuentros, welche diese Anforderungen erfüllen.
Resumo:
In der vorliegenden Dissertation werden Systeme von parallel arbeitenden und miteinander kommunizierenden Restart-Automaten (engl.: systems of parallel communicating restarting automata; abgekürzt PCRA-Systeme) vorgestellt und untersucht. Dabei werden zwei bekannte Konzepte aus den Bereichen Formale Sprachen und Automatentheorie miteinander vescrknüpft: das Modell der Restart-Automaten und die sogenannten PC-Systeme (systems of parallel communicating components). Ein PCRA-System besteht aus endlich vielen Restart-Automaten, welche einerseits parallel und unabhängig voneinander lokale Berechnungen durchführen und andererseits miteinander kommunizieren dürfen. Die Kommunikation erfolgt dabei durch ein festgelegtes Kommunikationsprotokoll, das mithilfe von speziellen Kommunikationszuständen realisiert wird. Ein wesentliches Merkmal hinsichtlich der Kommunikationsstruktur in Systemen von miteinander kooperierenden Komponenten ist, ob die Kommunikation zentralisiert oder nichtzentralisiert erfolgt. Während in einer nichtzentralisierten Kommunikationsstruktur jede Komponente mit jeder anderen Komponente kommunizieren darf, findet jegliche Kommunikation innerhalb einer zentralisierten Kommunikationsstruktur ausschließlich mit einer ausgewählten Master-Komponente statt. Eines der wichtigsten Resultate dieser Arbeit zeigt, dass zentralisierte Systeme und nichtzentralisierte Systeme die gleiche Berechnungsstärke besitzen (das ist im Allgemeinen bei PC-Systemen nicht so). Darüber hinaus bewirkt auch die Verwendung von Multicast- oder Broadcast-Kommunikationsansätzen neben Punkt-zu-Punkt-Kommunikationen keine Erhöhung der Berechnungsstärke. Desweiteren wird die Ausdrucksstärke von PCRA-Systemen untersucht und mit der von PC-Systemen von endlichen Automaten und mit der von Mehrkopfautomaten verglichen. PC-Systeme von endlichen Automaten besitzen bekanntermaßen die gleiche Ausdrucksstärke wie Einwegmehrkopfautomaten und bilden eine untere Schranke für die Ausdrucksstärke von PCRA-Systemen mit Einwegkomponenten. Tatsächlich sind PCRA-Systeme auch dann stärker als PC-Systeme von endlichen Automaten, wenn die Komponenten für sich genommen die gleiche Ausdrucksstärke besitzen, also die regulären Sprachen charakterisieren. Für PCRA-Systeme mit Zweiwegekomponenten werden als untere Schranke die Sprachklassen der Zweiwegemehrkopfautomaten im deterministischen und im nichtdeterministischen Fall gezeigt, welche wiederum den bekannten Komplexitätsklassen L (deterministisch logarithmischer Platz) und NL (nichtdeterministisch logarithmischer Platz) entsprechen. Als obere Schranke wird die Klasse der kontextsensitiven Sprachen gezeigt. Außerdem werden Erweiterungen von Restart-Automaten betrachtet (nonforgetting-Eigenschaft, shrinking-Eigenschaft), welche bei einzelnen Komponenten eine Erhöhung der Berechnungsstärke bewirken, in Systemen jedoch deren Stärke nicht erhöhen. Die von PCRA-Systemen charakterisierten Sprachklassen sind unter diversen Sprachoperationen abgeschlossen und einige Sprachklassen sind sogar abstrakte Sprachfamilien (sogenannte AFL's). Abschließend werden für PCRA-Systeme spezifische Probleme auf ihre Entscheidbarkeit hin untersucht. Es wird gezeigt, dass Leerheit, Universalität, Inklusion, Gleichheit und Endlichkeit bereits für Systeme mit zwei Restart-Automaten des schwächsten Typs nicht semientscheidbar sind. Für das Wortproblem wird gezeigt, dass es im deterministischen Fall in quadratischer Zeit und im nichtdeterministischen Fall in exponentieller Zeit entscheidbar ist.
Resumo:
Das Leben in modernen Großstädten in Deutschland und Europa fordert heute mehr denn je sprachliche Kompetenzen von uns, wie sie vor einigen Jahrzehnten noch kaum erahnt wurden. Nicht selten findet man sich in einem Gewirr aus Sprachen wieder und realisiert schnell, dass die Europäische Union zumindest kulturell längst in unserem Alltag angekommen ist. Das Gespräch mit Touristen und Wahldeutschen aus aller Welt findet vorzugsweise auf Englisch statt, der Lingua Franca. Und hieraus ergibt sich ein großes Problem, eine zentrale Aufgabe der Schulbildung in dieser sich zunehmend globalisierenden Welt des einundzwanzigsten Jahrhunderts. Das Erlernen einer Sprache allein genügt nicht mehr, um die notwendigen Bürgerkompetenzen im kontemporären Europa zu erlangen. Die Sachfächer erweisen sich tendenziell immer mehr als gordische Knoten der Kompetenzorientierung, wenn sich etwa die Frage stellt, ob Schüler das dort erlangte Wissen auch wirklich international nutzbar machen können. In dieser Arbeit soll zunächst kurz auf einige grundlegende Merkmale und Ausprägungen bilingualen Unterrichts aufmerksam gemacht werden. Danach sollen im theoretischen Teil dieser Arbeit drei grundlegende Säulen eines bilingual ausgerichteten Physikunterrichts entworfen werden. Mithilfe empirischer Evidenz soll darauf aufbauend gezeigt werden, wie Sachfach und Sprache miteinander wechselwirken und welchen Einfluss die Sprache auf den Wissenserwerb hat (siehe Kapitel 3.1). Im folgenden Teil steht dann die Frage im Mittelpunkt, was mit Physikunterricht generell erzielt werden soll (siehe Kapitel 3.2). Der theoretische Teil wird schließlich mit der Betrachtung personeller Einflüsse durch die Schüler und Lehrer selbst abgerundet (siehe Kapitel 3.3). Auf der Grundlage dieser theoretischen Überlegungen, erfolgt schließlich die Analyse der im Zuge der Arbeit durchgeführten Lehrerinterviews. Mit der Formulierung der Forschungsfragen in Kapitel 4 sowie der genaueren Beschreibung der Untersuchungsmethodik in Kapitel 5, folgt in den Kapiteln 6 und 7 die Auswertungsmethodik sowie die Präsentation der so gewonnenen Ergebnisse. Im Kapitel 8 werden die Ergebnisse nochmals diskutiert und in Bezug auf die Forschungsfragen interpretiert. Schließlich fasst Kapitel 9 die Ergebnisse der Untersuchung zusammen und Kapitel 10 liefert ein Fazit der gesamten Arbeit.
Resumo:
Das hier frei verfügbare Skript und die Sammlung an Klausuren mit Musterlösungen aus den Jahren 2006 bis 2015 geht auf die gleichnamige Vorlesung im Bachelorstudiengang Informatik an der Universität Kassel zurück, die von Prof. Dr. Wegner und ab 2012 von Dr. Schweinsberg angeboten wurde. Behandelt werden die Grundlagen der eXtensible Markup Language, die sich als Datenaustauschsprache etabliert hat. Im Gegensatz zu HTML erlaubt sie die semantische Anreicherung von Dokumenten. In der Vorlesung wird die Entwicklung von XML-basierten Sprachen sowie die Transformierung von XML-Dokumenten mittels Stylesheets (eXtensible Stylesheet Language XSL) behandelt. Ebenfalls werden die DOM-Schnittstelle (Document Object Model) und SAX (Simple API for XML) vorgestellt.
Resumo:
Das hier frei verfügbare Skript gehört zu einer gleichnamigen Vorlesung, die von Prof. Dr. Lutz Wegner bis zum Wintersemester 1998/99 am damaligen Fachbereich 17 Mathematik/Informatik der Universität Kassel gehalten wurde. Thema ist die Einführung in die Programmierung, wie sie am Anfang fast aller Informatik-, Mathematik- und verwandter Ingenieurstudiengänge steht. Hier erfolgt die Einführung mit der Programmiersprache Pascal, die Niklaus Wirth (ehemals ETH Zürich) bereits 1968 entwickelte. Sie gilt als letzte Vertreterin der rein prozeduralen Sprachen und führt in der Regel zu sauber strukturierten Programmen. In der damals auf PCs weit verbreiteten Turbo Pascal Variante geht es auch um Objektorientierung, die charakteristisch für das heutige Programmierparadigma mit Java ist. Alte (und neu geschriebene) Pascal-Programme lassen sich problemlos mit den Free Pascal Open Source Compilern (www.freepascal.org) übersetzen und unter allen gängigen Betriebssystemen zur Ausführung bringen. Wer hierfür eine fachlich präzise und trotzdem vergleichsweise gut lesbare Einführung mit Hinweisen auf guten und schlechten Programmierstil braucht, wird hier fündig und kommt über den Stickwortindex am Ende auch schnell zu Einzelthemen wie Parameterübergabe oder das Arbeiten mit Pointern.
Resumo:
Das Erkenntnisinteresse der vorliegenden Arbeit besteht darin, im Rahmen einer explorativ-interpretativen Querschnittstudie vertiefte Einblicke in den Sprachgebrauch von mehrsprachigen Deutschlernenden am Beispiel von Verb-Nomen Kollokationen zu gewinnen. Unter Berücksichtigung der in diesem Zusammenhang bisher nicht untersuchten Sprachenkonstellation L1 Persisch, L2 Englisch, L3 Arabisch und L4 Deutsch sollen die von den Lernenden angewendeten lexikalischen Transferstrategien erforscht werden. Der Untersuchungsgegenstand sind die soziokognitiven Löseprozesse der ProbandInnen bei der dyadischen Bearbeitung von Kollokationsaufgaben. Zur Identifizierung der Transferphänomene und der TL-Strategien (Target Language-Strategien) werden Gesprächs-protokolle ausgewählter Dyaden analysiert. Überdies werden zwecks Rekonstruktion und Interpretation der Löseprozesse stimulated recall-Interviews mit den ProbandInnen herangezogen, wodurch die Datensets miteinander trianguliert werden. Zudem wird ermittelt, inwieweit ausgewählte Faktoren (Psychotypologie, Kompetenz in der Zielsprache und Kompetenz in den zuvor gelernten Sprachen) den Transferprozess beeinflussen. Hierzu dienen die Erkenntnisse aus begleitend durchgeführten Leitfadeninterviews und Sprachstandstests (TOEFL- und Arabischtest). Ferner wird der Arbeitsstil der ProbandInnen bei der dyadischen Aufgabenbearbeitung anhand des Fragebogens Style Analysis Survey von Oxford (1995) bestimmt. An der Studie, die im Deutschen Sprachinstitut Teheran durchgeführt wurde, nahmen 14 iranische Deutschlernende auf dem Niveau B2.1 und C2.2 teil. Sie wurden aufgrund ihrer mittels eines Fragebogens erhobenen Sprachlernbiografien ausgewählt. Die Gesprächsprotokolle der Dyadenarbeit und die Interviews wurden vollständig transkribiert bzw. transliteriert und anschließend qualitativ-interpretativ ausgewertet. Um ihre Wissenslücken bei der Bearbeitung der Kollokationsaufgaben zu kompensieren, setzten die ProbandInnen verschiedene inter- und intralinguale Strategien ein. Dabei ist der L1 Persisch und der L4 Deutsch insgesamt der größte Einfluss beizumessen. Diesbezüglich wird deutlich, dass zwischen Sprachniveau und Transferverhalten der Lernenden ein Zusammenhang besteht, insofern als fortgeschrittene Lernende stärker zu intralingualem Transfer neigen. Zudem lässt sich festhalten, dass ein Zusammenhang zwischen der empfundenen psychotypologischen Distanz und der Rolle der Muttersprache besteht, d.h. bei als größer empfundener psychotypologischer Distanz zwischen Persisch und Deutsch wird seltener aus dem Persischen transferiert. Überdies ist festzustellen, dass die L2 Englisch zwar gelegentlich mitaktiviert wird, jedoch nur eine untergeordnete Rolle spielt. Ein Einfluss der L3 Arabisch kann aus verschiedenen Gründen (u.a. geringes Niveau und mangelnder Gebrauch dieser Sprache) nicht festgestellt werden. Die vorliegende Arbeit versteht sich als ein Plädoyer für die Relevanz der Schulung von Kollokationen im Fremdsprachenunterricht, da die produktive Kollokationskompetenz der ProbandInnen auch auf einem hohen Niveau gravierende Defizite aufweist.