302 resultados para Romanische Sprachen
Resumo:
Das hier frei verfügbare Skript und die Sammlung an Klausuren mit Musterlösungen aus den Jahren 2006 bis 2015 geht auf die gleichnamige Vorlesung im Bachelorstudiengang Informatik an der Universität Kassel zurück, die von Prof. Dr. Wegner und ab 2012 von Dr. Schweinsberg angeboten wurde. Behandelt werden die Grundlagen der eXtensible Markup Language, die sich als Datenaustauschsprache etabliert hat. Im Gegensatz zu HTML erlaubt sie die semantische Anreicherung von Dokumenten. In der Vorlesung wird die Entwicklung von XML-basierten Sprachen sowie die Transformierung von XML-Dokumenten mittels Stylesheets (eXtensible Stylesheet Language XSL) behandelt. Ebenfalls werden die DOM-Schnittstelle (Document Object Model) und SAX (Simple API for XML) vorgestellt.
Resumo:
Das hier frei verfügbare Skript gehört zu einer gleichnamigen Vorlesung, die von Prof. Dr. Lutz Wegner bis zum Wintersemester 1998/99 am damaligen Fachbereich 17 Mathematik/Informatik der Universität Kassel gehalten wurde. Thema ist die Einführung in die Programmierung, wie sie am Anfang fast aller Informatik-, Mathematik- und verwandter Ingenieurstudiengänge steht. Hier erfolgt die Einführung mit der Programmiersprache Pascal, die Niklaus Wirth (ehemals ETH Zürich) bereits 1968 entwickelte. Sie gilt als letzte Vertreterin der rein prozeduralen Sprachen und führt in der Regel zu sauber strukturierten Programmen. In der damals auf PCs weit verbreiteten Turbo Pascal Variante geht es auch um Objektorientierung, die charakteristisch für das heutige Programmierparadigma mit Java ist. Alte (und neu geschriebene) Pascal-Programme lassen sich problemlos mit den Free Pascal Open Source Compilern (www.freepascal.org) übersetzen und unter allen gängigen Betriebssystemen zur Ausführung bringen. Wer hierfür eine fachlich präzise und trotzdem vergleichsweise gut lesbare Einführung mit Hinweisen auf guten und schlechten Programmierstil braucht, wird hier fündig und kommt über den Stickwortindex am Ende auch schnell zu Einzelthemen wie Parameterübergabe oder das Arbeiten mit Pointern.
Resumo:
Das Erkenntnisinteresse der vorliegenden Arbeit besteht darin, im Rahmen einer explorativ-interpretativen Querschnittstudie vertiefte Einblicke in den Sprachgebrauch von mehrsprachigen Deutschlernenden am Beispiel von Verb-Nomen Kollokationen zu gewinnen. Unter Berücksichtigung der in diesem Zusammenhang bisher nicht untersuchten Sprachenkonstellation L1 Persisch, L2 Englisch, L3 Arabisch und L4 Deutsch sollen die von den Lernenden angewendeten lexikalischen Transferstrategien erforscht werden. Der Untersuchungsgegenstand sind die soziokognitiven Löseprozesse der ProbandInnen bei der dyadischen Bearbeitung von Kollokationsaufgaben. Zur Identifizierung der Transferphänomene und der TL-Strategien (Target Language-Strategien) werden Gesprächs-protokolle ausgewählter Dyaden analysiert. Überdies werden zwecks Rekonstruktion und Interpretation der Löseprozesse stimulated recall-Interviews mit den ProbandInnen herangezogen, wodurch die Datensets miteinander trianguliert werden. Zudem wird ermittelt, inwieweit ausgewählte Faktoren (Psychotypologie, Kompetenz in der Zielsprache und Kompetenz in den zuvor gelernten Sprachen) den Transferprozess beeinflussen. Hierzu dienen die Erkenntnisse aus begleitend durchgeführten Leitfadeninterviews und Sprachstandstests (TOEFL- und Arabischtest). Ferner wird der Arbeitsstil der ProbandInnen bei der dyadischen Aufgabenbearbeitung anhand des Fragebogens Style Analysis Survey von Oxford (1995) bestimmt. An der Studie, die im Deutschen Sprachinstitut Teheran durchgeführt wurde, nahmen 14 iranische Deutschlernende auf dem Niveau B2.1 und C2.2 teil. Sie wurden aufgrund ihrer mittels eines Fragebogens erhobenen Sprachlernbiografien ausgewählt. Die Gesprächsprotokolle der Dyadenarbeit und die Interviews wurden vollständig transkribiert bzw. transliteriert und anschließend qualitativ-interpretativ ausgewertet. Um ihre Wissenslücken bei der Bearbeitung der Kollokationsaufgaben zu kompensieren, setzten die ProbandInnen verschiedene inter- und intralinguale Strategien ein. Dabei ist der L1 Persisch und der L4 Deutsch insgesamt der größte Einfluss beizumessen. Diesbezüglich wird deutlich, dass zwischen Sprachniveau und Transferverhalten der Lernenden ein Zusammenhang besteht, insofern als fortgeschrittene Lernende stärker zu intralingualem Transfer neigen. Zudem lässt sich festhalten, dass ein Zusammenhang zwischen der empfundenen psychotypologischen Distanz und der Rolle der Muttersprache besteht, d.h. bei als größer empfundener psychotypologischer Distanz zwischen Persisch und Deutsch wird seltener aus dem Persischen transferiert. Überdies ist festzustellen, dass die L2 Englisch zwar gelegentlich mitaktiviert wird, jedoch nur eine untergeordnete Rolle spielt. Ein Einfluss der L3 Arabisch kann aus verschiedenen Gründen (u.a. geringes Niveau und mangelnder Gebrauch dieser Sprache) nicht festgestellt werden. Die vorliegende Arbeit versteht sich als ein Plädoyer für die Relevanz der Schulung von Kollokationen im Fremdsprachenunterricht, da die produktive Kollokationskompetenz der ProbandInnen auch auf einem hohen Niveau gravierende Defizite aufweist.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit derAutomatisierung von Berechnungen virtuellerStrahlungskorrekturen in perturbativen Quantenfeldtheorien.Die Berücksichtigung solcher Korrekturen aufMehrschleifen-Ebene in der Störungsreihenentwicklung istheute unabdingbar, um mit der wachsenden Präzisionexperimenteller Resultate Schritt zu halten. Im allgemeinen kinematischen Fall können heute nur dieEinschleifen-Korrekturen als theoretisch gelöst angesehenwerden -- für höhere Ordnungen liegen nur Teilergebnissevor. In Mainz sind in den letzten Jahren einige neuartigeMethoden zur Integration von Zweischleifen-Feynmandiagrammenentwickelt und im xloops-Paket in algorithmischer Formteilweise erfolgreich implementiert worden. Die verwendetenVerfahren sind eine Kombination exakter symbolischerRechenmethoden mit numerischen. DieZweischleifen-Vierbeinfunktionen stellen in diesem Rahmenein neues Kapitel dar, das durch seine große Anzahl vonfreien kinematischen Parametern einerseits leichtunüberschaubar wird und andererseits auch auf symbolischerEbene die bisherigen Anforderungen übersteigt. Sie sind ausexperimenteller Sicht aber für manche Streuprozesse vongroßem Interesse. In dieser Arbeit wurde, basierend auf einer Idee von DirkKreimer, ein Verfahren untersucht, welches die skalarenVierbeinfunktionen auf Zweischleifen-Niveau ganz ohneRandbedingungen an den Parameterraum zu integrierenversucht. Die Struktur der nach vier Residuenintegrationenauftretenden Terme konnte dabei weitgehend geklärt und dieKomplexität der auftretenden Ausdrücke soweit verkleinertwerden, dass sie von heutigen Rechnern darstellbar sind.Allerdings ist man noch nicht bei einer vollständigautomatisierten Implementierung angelangt. All dies ist dasThema von Kapitel 2. Die Weiterentwicklung von xloops über Zweibeinfunktionenhinaus erschien aus vielfältigen Gründen allerdings nichtmehr sinnvoll. Im Rahmen dieser Arbeit wurde daher einradikaler Bruch vollzogen und zusammen mit C. Bauer und A.Frink eine Programmbibliothek entworfen, die als Vehikel fürsymbolische Manipulationen dient und es uns ermöglicht,übliche symbolische Sprachen wie Maple durch C++ zuersetzen. Im dritten Kapitel wird auf die Gründeeingegangen, warum diese Umstellung sinnvoll ist, und dabeidie Bibliothek GiNaC vorgestellt. Im vierten Kapitel werdenDetails der Implementierung dann im Einzelnen vorgestelltund im fünften wird sie auf ihre Praxistauglichkeituntersucht. Anhang A bietet eine Übersicht über dieverwendeten Hilfsmittel komplexer Analysis und Anhang Bbeschreibt ein bewährtes numerisches Instrument.
Resumo:
Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.
Resumo:
Die vorliegende Arbeit ist ein Beitrag zur Neologismenforschung und Neologismenlexikografie (Neografie). Wiewohl letztere eine Entwicklung der 2. Hälfte des 20. Jh. ist, erlebt sie in den slavischen Sprachen vor allem nach den politischen Veränderungen der Jahre 1989/90 einen enormen Auftrieb, der in der Herausgabe neuer Neologismenwörterbücher mündet. Mit der Entwicklung der lexikografischen Praxis hat die Wörterbuchtheorie bislang nicht Schritt halten können. Anliegen dieser Arbeit ist es, zur Schließung dieser Lücke im Bereich der Makro- und Mediostruktur beizutragen. Grundlage der Untersuchung bilden knapp 60 einsprachige und 11 zweisprachige Neologismenwörterbücher und -listen des Polnischen, Russischen, Tschechischen, Deutschen und punktuell des Bulgarischen.rnDie im ersten Schritt durchgeführte Analyse der lexikologischen und lexikografischen Charakteristika der Erscheinung 'Neologismus' zeigt, dass in der Linguistik weitestgehend Konsens über den Begriff 'Neologismus' herrscht und dass die lexikologische Diskussion des Neologismusbegriffs zahlreiche Impulse durch die praktische Neologismenlexikografie erhalten hat.rnIm Rahmen der lexikografischen Bestandsaufnahme und Bestimmung der Erscheinung 'Neologismenlexikografie' bzw. 'Neografie' wird ein Modell entwickelt, das erlaubt, von einer Neografie im weiten und einer im engen Sinne, also von einem Zentrum und einer Peripherie der Neografie, zu sprechen. Die Zielsetzungen von Neologismenwörterbüchern sind primär, den neuen Wortschatz schnell und ausführlich zu registrieren und lexikografisch zu beschreiben, um so der Allgemeinlexikografie, der Forschung sowie der interessierten Öffentlichkeit entsprechende Informationen über die neue Lexik zeitnah zur Verfügung zu stellen.rnDie Untersuchung der Neologismenforschung und Neologismenlexikografie des Polnischen ergibt, dass der Neologismusbegriff in der polnischen Linguistik ähnlich wie in den übrigen untersuchten Sprachen betrachtet wird. Im Bereich der Neografie weist das Polnische zwar wichtige lexikografische Vorarbeiten auf, doch erst die Form der Bearbeitung von Neologismen im gerade entstehenden elektronischen Großwörterbuch des Polnischen und im geplanten einsprachigen Neologismenwörterbuch wird zeigen, ob es zu einer "Emanzipation" der polnischen Neografie gegenüber der Allgemeinlexikografie gekommen ist.rnDie Diskussion der makro- und mediostrukturellen Fragen zeigt, dass Aspekte wie Zusammenstellung der Wörterbuchbasis und die Kriterien für die Stichwortauswahl sowohl für gedruckte wie elektronische Neologismenwörterbücher dieselbe Geltung haben. Als wesentlich erweist sich in der Neografie das Aufzeigen der komplexen lexikalisch-semantischen Verflechtungen der neuen Wörter untereinander und mit etablierten Lexemen. Hier ergeben sich für die Neografie durch das elektronische Medium beträchtliche Möglichkeiten. Ein großes Potential stellen auch die einfachere Verknüpfbarkeit von Neologismen mit anderen lexikografischen und nicht-lexikografischen Ressourcen sowie die Entwicklung von individuellen Abfragemöglichkeiten über Drop-down-Menüs dar. Das elektronische Medium eröffnet auch die Option, auf die Herausgabe von Neologismenwörterbüchern zu verzichten und den neuen Wortschatz ausschließlich im Rahmen von elektronischen Allgemeinwörterbüchern zeitnah zu präsentieren – Voraussetzung hierfür ist allerdings eine durchgehende chronologische Markierung des Wortschatzes.
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
Diese Masterarbeit entstand im Rahmen des Projekts Language Toolkit. Die Haupttätigkeit meines Praktikums lag in der Lokalisierung der Website von Remedia ins Deutsche. Zu lokalisieren waren die in Kap. 1 beschriebenen Seiten der Abteilung „Cosmoonda“ zu den von der gleichnamigen Forschungsgruppe des Unternehmens entwickelten bioenergetischen Geräten. Das zweite Kapitel umfasst eine Einführung in die Lokalisierung und bietet einen Überblick über ihre Geschichte. Am Ende des Kapitels wurden die Vorteile der elocalization behandelt und es wurde das neue Anforderungsprofil des Übersetzers beschrieben. Kap. 3 beinhaltet die Analyse der überwiegenden Sprachfunktionen sowie der Textsorten und -typen zum Zweck der bestmöglichen Übertragung der Kommunikationsabsicht des Auftraggebers. Zur Festlegung der optimalen Übersetzungsstrategie von Werbetexten tragen unterschiedliche Faktoren bei, wie z.B. die Säulen des Marketing-Mix, die im vierten Kapitel in Bezug auf die Standardisierung oder Lokalisierung von Werbebotschaften analysiert wurden. Im vorliegenden Zusammenhang spielt die Positionierung eine ausschlaggebende Rolle, weil bioenergetische Geräte einen unterschiedlichen Lebenszyklus in Ausgangs- und Zielmarkt erleben. Anhand von konkreten Beispielen wurde im fünften Kapitel gezeigt, wie die Sprachen der Unternehmen, die ähnliche Produkte und Dienstleistungen anbieten, sich auch aufgrund von kognitiven, temporellen und pragmatischen Faktoren unterscheiden. Kap. 6 enthält eine Beschreibung der praktischen Schritte des Lokalisierungsprozesses (Dokumentationsphase sowie Erstellung und Analyse von Korpora). Der vorletzte Teil bietet einen Überblick über die Komponenten sowie die Vor- und Nachteile der Nutzung von CMS. Im letzten Teil der Arbeit habe ich mich mit den translatorischen Problemen und ihren Lösungen (durch AT-Fehler verursachte evidente Translationsprobleme, Strategien zur Wiedergabe von Produktnamen, Äquivalenzen zwischen AT und ZT) auseinandergesetzt.