996 resultados para Mittel- und Osteuropa
Resumo:
Die Diagnose und Therapie von neurodegenerativen Krankheiten, wie beispielsweise Morbus Parkinson besitzt in der heutigen Gesellschaft eine immer größere Bedeutung. Über moderne, bild¬gebende nuklear¬medizinische Verfahren wie SPECT und PET ist es mit geeigneten Radioliganden möglich, Morbus Parkinson vor dem Auftreten von Symptomen zu diagnostizieren. Ein wichtiger Ansatzpunkt zur Diagnose von Morbus Parkinson ist die Visualisierung der postsynaptischen Dopamin-Rezeptoren über radioaktiv (11C, 18F, 123I) markierte Benz¬amid-Derivate. Auf Grundlage der (S)-Pyrolidin-2,3-dimethoxy-Benzamid-Struktur des 18F-Liganden Fallypride wurden verschiedene 99mTc-markierte Benzamid-Derivate als potentielle Radio¬liganden zur Parkinson-Diagnostik entwickelt. Um das Potential von Metall-konjugierten Benzamiden abschätzen zu können, wurden zunächst einfache Vergleichssubstanzen entwickelt. Diese sollten die Einführung eines Chelators simulieren und wurden hierfür hinsichtlich ihrer in vitro-Bindungsaffinitäten zu den Dopamin-, Serotonin- und adrenergen Rezeptoren evaluiert. Die zunächst entwickelten Derivate mit unterschiedlichen Kettenlängen zur Kopplung des Chelators zeigten für die Propylkette Affinitäten im nanomolaren Bereich. Im Anschluss sollten basierend auf diesen Ergebnissen vier verschiedene Chelatoren (Carbony-Cyclopentadienyl, Amido-Cyclopentadienyl, 2-Pyridyl-Imin und N2S2) über eine Propylkette an die 5-Position der Benzamidgrundstruktur gekoppelt werden. Die geplante Synthese des Carbonyl-Cyclopentadienyl-Derivates gelang jedoch nicht. Für die weiteren Chelatoren (Amido-Cyclopentadieny, 2-Pyridyl-Imin und N2S2) konnten die jeweiligen Markierungs¬vorläufer und Rhenium-Komplexe dargestellt werden, die ebenfalls hinsichtlich ihrer Bindungs¬affinitäten evaluiert wurden. Die erzielten Affinitäten zeigten, dass eine Über¬tragung der Affinitäten der einfachen Vergleichssubstanzen auf die komplexeren Metall-Benzamide nicht möglich war. Insbesondere der N2S2-Rhenium-Komplex besitzt nur noch geringe Affinität (490 - 900 nM) zu den D2- und D3-Rezeptoren. Die mittel-affinen 2-Pyridyl-Imin- und Amdio¬cyclopentadien-Komplexe wurden mit 99mTc markiert und die Markierungsausbeute hinsichtlich Reaktionstemperatur, Markierungs-vorläuferkonzentration und Heizmethoden optimiert. Dabei konnte der Imin-Komplex quantitativ mittels fac-[99mTc(CO)3(H2O)3]+ in 30 Minuten bei 45°C markiert werden. Der Amido-Cyclopentadien-Komplex konnte über die Umsetzung des Ferrocen-Markierungsvorläufer mit Mn(CO)5Br und [99mTcO4]- in Ausbeuten von bis zu 60 % markiert werden. Im Anschluss an die Markierungen wurden die 99mTc-Komplexe über HPLC isoliert und in in vitro-Auto¬radiographien von Rattenhirnschnitten weiter evaluiert. Die erhaltenen Ergebnisse bestätigten die für die Rhenium-Komplexe erzielten Affinitäten und zeigten keine spezifische Anreicherung in bestimmten Hirnarealen. Aus diesen Ergebnissen kann ge¬schlossen werden, dass die dargestellten 99mTc-Benzamide aufgrund mangelnder Affinitäten und einer hohen unspezifischen Bindung keine geeigneten Liganden zur Darstellung der D2- und D3- Rezeptoren sind. Um die dargestellten 99mTc-Benzamide mit [18F]Fallypride vergleichen zu können, wurde zusätzlich [3H]Fallypride dargestellt. Hierfür wurde zunächst der Nor-Markierungsvor¬läufer synthetisiert und die Markierungsausbeute optimiert. Die finale Umsetzung mit [3H]Methylnosylat ergab nach HPLC-Aufreinigung 15 mCi [3H]Fallypride mit einer radio¬chemischen Reinheit von >99,5 %. Erste Autoradiographien zeigten eine hohe Anreicherung des Liganden im Striatum, verbunden mit einer sehr niedrigen unspezifischen Bindung.
Resumo:
Der Transplantat-gegen-Leukämie (GVL) Effekt als immuntherapeutisches Mittel bei der allogenen hämatopoetischen Stammzell Transplantation (HSZT) ist hauptsächlich durch Spender Lymphozyten vermittelt, welche hämatopoetische Minor-Histokompatibilitäts Antigene bzw. Leukämie-assoziierte Antigene (z. B.: PRAME, p53) erkennen. Der adoptive Transfer von Leukämie-spezifischen T-Zellen kann den GVL-Effekt, ohne ein Auftreten einer Transplantat-gegen-Wirt Erkrankung (GVHD), steigern. Unter Verwendung von HLA-A2 und human CD8 transgenen Mäusen (CD8yCyA2Kb) konnten in dieser Arbeit PRAME spezifische CD8+ zytotoxischen T-Zellen generiert werden. Diese zytotoxischen CD8+ T-Zellen zeigten in Chromfreisetzungsuntersuchungen lytische Aktivität gegen eine Vielzahl von Zelllinien, die PRAME endogen prozessieren sowie gegen das spezifische PRAME-Peptid. Des Weiteren wurden die hier generierten T-Zellen auf ihre zytotoxische Aktivität gegen akute myeloische Leukämie Blasten hin untersucht, und diese Untersuchungen zeigten AML-Reaktivität der PRAME-spezifischen sowie der als Vergleich genutzten p53- und HLA-A2-spezifischen T-Zellen. Das Potenzial der PRAME-spezifischen ZTL die GVL-Immunität in vivo zu erhöhen ohne das Vorkommen einer GVHD wurde in einem Tumor-Protektions-Model unter der Nutzung von NOD/SCIDgcnull Mäusen untersucht. Die PRA100- bzw. p53-ZTL wurden adoptiv in NOD/SCIDgcnull Rezipienten transferiert und gleichzeitig wurden die Tiere mit PRAME-, oder p53-exprimierende Tumorzelllinien inokuliert. Die Reduktion des Tumorwachstums bestätigte die Spezifität der T-Zellen auch in vivo. In weiteren in vivo Experimenten wurden NOD/SCIDgcnull Mäuse mit AML-Blasten rekonstituiert. Durch die Applikation von nur CD34 positiven Zellen aus einer AML-Probe, oder einer CD56 depletierten Probe, konnten Rekonstitutionen in 95 % aller Versuche erfolgreich beendet werden. Wurde eine Rekonstitution mittels PCR- und FACS-Analysen diagnostiziert, so folgten mehrere Applikationen der PRAME- oder p53-spezifischen ZTL. In diesen Untersuchungen konnten wir in einem therapeutischen AML-in vivo-Modell zeigen, dass die in diesen Untersuchungen generierten/verwandten ZTL in der Lage sind AML-Blasten in vivo zu bekämpfen und so die leukämische Last der Tiere im Blut sowie in der Milz auf unter 1 % zu regulieren. Der prozentuale Anteil humaner AML Zellen im Knochenmark konnte deutlich gesenkt werden (< 10 %). Zusammenfassend sind die von uns generierten PRAME-spezifischen T-Zellen in der Lage, in vitro und auch in vivo, endogen prozessiertes Protein auf Zelllinien und AML-Blasten zu erkennen und zu lysieren. Auch die p53-ZTL, welche als eine weitere Antigen-spezifische ZTL-Population in vivo getestet wurden, zeigten GVL-Effekte. Die Kenntnis von Tumor- bzw. Leukämie assoziierten Antigenen und die daraus erwachsene Möglichkeit der Generierung krankheitsspezifischer ZTL bietet die Grundlage für eine spezifische Immuntherapie maligner Erkrankungen.
Resumo:
Das Jahr 1989 markiert nicht nur den Beginn entscheidender geopolitischer Veränderungen, sondern gleichzeitig den Ursprung eines bedeutsamen Wandels in der internationalen Entwicklungszusammenarbeit. Mit der viel beachteten Studie ‚Sub-Saharan Africa – From Crisis to Sustainable Growth’ initiierte die Weltbank eine Debatte über die Relevanz institutioneller Faktoren für wirtschaftliche Entwicklung, die in den folgenden Jahren unter dem Titel ‚Good Governance’ erhebliche Bedeutung erlangte. Nahezu alle zentralen Akteure begannen, entsprechende Aspekte in ihrer praktischen Arbeit zu berücksichtigen, und entwickelten eigene Konzepte zu dieser Thematik. Wenn auch mit der Konzentration auf Institutionen als Entwicklungsdeterminanten eine grundlegende Gemeinsamkeit der Ansätze festzustellen ist, unterscheiden sie sich jedoch erheblich im Hinblick auf die Einbeziehung politischer Faktoren, so dass von einem einheitlichen Verständnis von ‚Good Governance’ nicht gesprochen werden kann. Während die meisten bilateralen Akteure sowie DAC und UNDP Demokratie und Menschenrechte explizit als zentrale Bestandteile betrachten, identifiziert die Weltbank einen Kern von Good Governance, der unabhängig von der Herrschaftsform, also sowohl in Demokratien wie auch in Autokratien, verwirklicht werden kann. Die Implikationen dieser Feststellung sind weit reichend. Zunächst erlaubt erst diese Sichtweise der Bank überhaupt, entsprechende Aspekte aufzugreifen, da ihr eine Berücksichtigung politischer Faktoren durch ihre Statuten verboten ist. Bedeutsamer ist allerdings, dass die Behauptung der Trennbarkeit von Good Governance und der Form politischer Herrschaft die Möglichkeit eröffnet, Entwicklung zu erreichen ohne eine demokratische Ordnung zu etablieren, da folglich autokratische Systeme in gleicher Weise wie Demokratien in der Lage sind, die institutionellen Voraussetzungen zu verwirklichen, welche als zentrale Determinanten für wirtschaftlichen Fortschritt identifiziert wurden. Damit entfällt nicht nur ein bedeutsamer Rechtfertigungsgrund für demokratische Herrschaft als solche, sondern rekurrierend auf bestimmte, dieser zu attestierende, entwicklungshemmende Charakteristika können Autokratien nun möglicherweise als überlegene Herrschaftsform verstanden werden, da sie durch jene nicht gekennzeichnet sind. Die Schlussfolgerungen der Weltbank unterstützen somit auch die vor allem im Zusammenhang mit der Erfolgsgeschichte der ostasiatischen Tigerstaaten vertretene Idee der Entwicklungsdiktatur, die heute mit dem Aufstieg der Volksrepublik China eine Renaissance erlebt. Der wirtschaftliche Erfolg dieser Staaten ist danach auf die überlegene Handlungsfähigkeit autokratischer Systeme zurückzuführen, während Demokratien aufgrund der Verantwortlichkeitsbeziehungen zwischen Regierenden und Regierten nicht in der Lage sind, die notwendigen Entscheidungen zu treffen und durchzusetzen. Die dargestellte Sichtweise der Weltbank ist allerdings von verschiedenen Autoren in Zweifel gezogen worden, die auch für ein im Wesentlichen auf technische Elemente beschränktes Good Governance-Konzept einen Zusammenhang mit der Form politischer Herrschaft erkennen. So wird beispielsweise vertreten, das Konzept der Bank bewege sich ausdrücklich nicht in einem systemneutralen Vakuum, sondern propagiere zumindest implizit die Etablierung demokratischer Regierungsformen. Im Übrigen steht die aus den Annahmen der Weltbank neuerlich abgeleitete Idee der Entwicklungsdiktatur in einem erheblichen Widerspruch zu der von multilateralen wie bilateralen Akteuren verstärkt verfolgten Förderung demokratischer Herrschaft als Mittel für wirtschaftliche Entwicklung sowie der fortschreitenden Verbreitung der Demokratie. Besteht nun doch ein Einfluss der Herrschaftsform auf die Verwirklichung von Good Governance als zentraler Entwicklungsdeterminante und kann zudem davon ausgegangen werden, dass Demokratien diesbezüglich Vorteile besitzen, dann ist eine Entwicklungsdiktatur keine denkbare Möglichkeit, sondern im Gegenteil demokratische Herrschaft der gebotene Weg zu wirtschaftlichem Wachstum bzw. einer Verbesserung der Lebensverhältnisse. Aufgrund der mit den Schlussfolgerungen der Weltbank verbundenen bedeutsamen Implikationen und der bisher weitestgehend fehlenden ausführlichen Thematisierung dieses Gegenstands in der Literatur ist eine detaillierte theoretische Betrachtung der Zusammenhänge zwischen den zentralen Elementen von Good Governance und demokratischer Herrschaft notwendig. Darüber hinaus sollen die angesprochenen Beziehungen auch einer empirischen Analyse unterzogen werden. Gegenstand dieser Arbeit ist deshalb die Fragestellung, ob Good Governance eine von demokratischer Herrschaft theoretisch und empirisch unabhängige Entwicklungsstrategie darstellt.
Resumo:
Der Ökotourismus hat sich in den letzten Jahren zu einer Tourismussparte entwickelt, die nicht nur immer mehr Interessenten unter den Nutzern findet, sondern auch vielfältige Forschungsmöglichkeiten eröffnet.rnAus interdisziplinärer Betrachtungsweise kann man sowohl in den Gebieten der Biologie, der Wirtschaft, der Geographie, aber auch der Politik forschend tätig werden. rnDa der Tourismus in den letzten Jahren eine immer größere Bedeutung gerade für Länder mit weitestgehend intakten Naturressourcen erlangt hat, stellt sich die Frage inwieweit die Wirtschaft eines Landes auf diese Einnahmequelle angewiesen ist und ob nicht die ökologischen Belange immer weiter in den Hintergrund treten.rnAus diesem Ansatz heraus erfolgte zunächst eine qualitative und quantitative Bestandsaufnahme, die ein klares Bild vom derzeitigen Zustand in der Region ermöglicht. Darüber hinaus werden im Rahmen der Untersuchungen Zukunftsperspektiven aufgezeigt. Diese sollen verdeutlichen, inwieweit man steuernd in solche dynamischen Entwicklungsprozesse eingreifen kann oder soll.rnDie Schwerpunkte dieser Arbeit liegen in dem Bereich der Befragung von Touristen und in der Ausarbeitung eines digitalen Geländemodells zur späteren Nutzung in einem aufzubauenden Nationalpark-Infozentrum. Auf der Grundlage dieser Untersuchungen wurde ein touristisches Nutzungskonzept entwickelt und auf seine ökologischen Umsetzungschancen hin untersucht. Der Aspekt des Ökotourismus wird einleitend erörtert und definiert. Anschließend werden die Potenziale der norwegischen Tourismuswirtschaft untersucht. Die Befragungsergebnisse sowohl der norwegischen Besucher als auch der ausländischen Touristen werden in verschiedenen Korrelationen näher untersucht.rnEin gesonderter Bereich der Untersuchungen gilt dem Problemfeld des Wildcampings in Norwegen. Die dramatischen Entwicklungen der letzten Jahre rufen immer mehr Aktivisten auf den Plan. Da die Deutschen die größte Besuchergruppe darstellen, wurden innerhalb der Jahre 2003 bis 2006 Einzelinterviews geführt, um einen Überblick über das Übernachtungsverhalten der Deutschen in Norwegen gewinnen zu können. In den vergangenen 10 Jahren sind die deutschen Besucherzahlen in Norwegen leicht rückläufig, während die der Niederländer kontinuierlich steigen.rnAuf diesen Ergebnissen basierend wurden problemzentrierte Interviews mit Wohnmobilreisenden, der größten Gruppe der Individualreisenden, durchgeführt. rnMehr als 600.000 Nächte pro Jahr verbrachten die deutschen Wohnmobilreisenden außerhalb der Campingplätze, was ökologische und ökonomische Auswirkungen hat und nicht mehr mit dem in Norwegen geltenden „Allemansrett“, dem Jedermannsrecht, vereinbar ist. rnGerade die Touristen, die mit dem Wohnmobil reisen, können nur schwer mit anderen Reisenden verglichen werden, da sie mit einer völlig anderen Reiseauffassung mehr oder weniger autark unterwegs sind. Dabei legen sie besonders große Distanzen zurück und haben sich zum Ziel gesetzt, möglichst viel in kurzer Zeit zu sehen und zu erleben. Für alle Touristengruppen wurde untersucht, auf welchem Weg die Informationen für die geplante Reise beschafft wurden. Der Reiseführer ist der hauptsächliche Informationslieferant und ist teilweise für das Verhalten der Urlauber mitverantwortlich. Es konnte festgestellt werden, dass das Image des Landes und die Reisemotive das Reiseverhalten und die Wahrnehmung determinieren. Eine Untersuchung der so genannten Pull- und Push-Faktoren ergab, dass die nahezu noch unberührte Natur, die raue Landschaft sowie Ruhe und Erholung die entscheidenden Pull-Faktoren für Norwegenreisende sind. Dabei überprägt das Image Norwegens als „wildes Naturland“ die Wahrnehmung für verschiedene Problembereiche, die in Norwegen, wie auch in vielen anderen Ländern Europas, durchaus vorhanden sind. rnProblemfelder, wie Landschaftsausbeutung, Wildcamping, reduziertes Konsumverhalten und damit einhergehende rückläufige Besucherzahlen, können aber durch innovative Tourismuskonzepte und neue Reiseformen abgebaut werden. Hierbei sind Medien, wie Reiseführer, Internet und Reisemagazine, in die Pflicht zu nehmen.
Resumo:
Pankreaskarzinome und maligne Melanome weisen eine hohe Resistenz gegenüber Zytostatika und Bestrahlung in der Therapie auf. Die Behandlung eines metastasierenden Pankreaskarzinoms besteht aus einer Kombination aus 5-FU, CDDP und IR. Für die Behandlung des malignen Melanoms ist das methylierende Agenz DTIC das Mittel erster Wahl. Das ebenfalls methylierende Agenz TMZ, welches jedoch in Deutschland noch nicht für die Behandlung von malignen Melanomen zugelassen ist, erlangt immer größere Bedeutung. Die Ansprechrate der Tumore kann durch Kombination mit IFNs erhöht werden. In der vorliegenden Arbeit wurde an Pankreaskarzinom- bzw. Melanomzelllinien untersucht, ob IFNs einen radio- bzw. chemosensibilisierender Effekt ausüben und, wenn ja, welcher Mechanismus hierfür verantwortlich ist. Es wurden zehn Pankreaskarzinom-Zelllinien (Panc-1, Su8686, Capan-1, Capan-2, Bxpc-3, PA-TU 8988T, Aspc-1, HS 766T, Mia-PaCa-2 und PA-TU 8902) untersucht. Diese zeigten eine hohe Variabilität in ihrer intrinsischen Radiosensitivität sowie in ihrer Sensitivität gegenüber IFN-alpha und IFN-beta. IFN-beta erwies sich als toxischer im Vergleich zu IFN-alpha. Die radiosensibilisierende Wirkung der IFNs an Pankreaskarzinom-Zelllinien war moderat, wobei IFN-beta im Vergleich zu IFN-alpha effektiver war. Der radiosensibilisierende Effekt ging mit einer deutlichen Erhöhung der alpha-Komponente, der Überlebenskurven einher und kam durch eine IFN-beta vermittelte Verstärkung der IR-induzierten Apoptoserate zustande. Dies wurde sowohl durch SubG1 als auch durch Annexin V / PI Messungen gezeigt. Einen Einfluss von IFN-beta auf den Zellzyklus und die DSB-Reparatur konnte durch funktionelle Untersuchungen sowie durch PCR bzw. Western-Blot-Analysen als Grund für den sensibilisierdenen Effekt ausgeschlossen werden. Ein sensibilisierender Effekt von IFN-beta auf die durch TMZ-induzierte Zytotoxizität war für die Pankreaskarzinom-Zelllinien weder in MGMT-profizientem noch –depletiertem Zustand zu beobachten. Zur Untersuchung der sensibilisierenden Eigenschaften von IFNs gegenüber TMZ in malignen Melanomzelllinien wurden p53-Wildtyp (D05 und A375) und mutierte Zelllinien (D14 und RPMI 7951) untersucht. Gegenüber alleiniger TMZ-Behandlung reagierten die untersuchten p53-Wildtyp Melanomzelllinien nicht sensitiver auf eine Behandlung mit TMZ als p53-mutierte Zelllinien. Der Nachweis des Spaltprodukts der Caspase-9 lieferte einen Hinweis darauf, dass in den Melanomzelllinien unabhängig vom p53-Status nach alleiniger TMZ-Behandlung der mitochondriale Apoptoseweg aktiviert wird. Durch eine Vorbehandlung der Zellen mit IFN-alpha oder IFN-beta konnte die TMZ-induzierte Apoptoserate in malignen Melanomzellen deutlich gesteigert werden. In p53-Wildtyp Melanomzellen war der chemosensibilisierende Effekt der IFNs besonders ausgeprägt. IFN-beta erwies sich hierbei als effektiver, weshalb es für die folgenden Versuche verwendet wurde. Durch stabile Transfektion der Zelllinie D05 mit MGMT konnte das durch TMZ-induzierte Addukt O6MeG als für den sensibilisieredenen Effekt ausschlaggebende DNA-Schädigung charakterisiert werden. Western-Blot-Analysen und gamma-H2AX-Immunfluoreszenz Untersuchungen konnten einen Einfluss von IFN-beta auf die Prozessierung der Läsion O6MeG sowie einen Einfluss von IFN-beta auf die Induktion und Reparatur von TMZ verursachten DSBs ausschließen. Durch Experimente mit einem Fas-aktivierenden Antikörper und durch eine stabile Transfektion der Zelllinien D05 und A375 mit DN-FADD konnte gezeigt werden, dass p53-Wildtyp Melanomzellen nicht oder nur eingeschränkt in der Lage sind, nach TMZ-Behandlung über den Fas-Rezeptor Signalweg Apoptose zu induzieren. Ausschlaggebend hierfür ist die geringe Pro-Caspase-8 Expression dieser Zelllinien. Eine IFN-beta Vorbehandlung bewirkte eine Reaktivierung des Fas-Rezeptor Signalweges, was mit einer verstärkten Expression der Pro-Caspase-8 einherging. Durch Experimente mit Caspase-8 siRNA konnte diese IFN-beta induzierte Verstärkung der Pro-Caspase-8 Expression als entscheidender Faktor für den sensibilisierenden Effekt ausgemacht werden. Zum ersten Mal konnte damit in dieser Arbeit gezeigt werden, dass p53-Wildtyp Melanomzellen durch eine IFN-beta vermittelte Hochregulation der Pro-Caspase-8 ihre Fähigkeit wiedererlangen, nach TMZ-Behandlung über den Fas-Rezeptor Signalweg Apoptose auszulösen. Diese Arbeiten weisen einen Weg, auf welchem die hohe Resistenz von malignen Melanomzellen, welche zu 80 % das nicht mutierte p53 Gen beherbergen, über eine IFN-beta induzierte Reaktivierung der Fas-Rezeptor vermittelten Apoptosekaskade überwunden werden kann.
Resumo:
Im Zuge dieser Arbeit ist ein Massenspektrometer zur flugzeuggetragenen Messung von HNO3 und HONO auf dem neuen deutschen Forschungsflugzeug HALO aufgebaut worden (AIMS - Atmospheric chemical Ionization Mass Spectrometer). Die Ionisation der HNO3- und HONO-Moleküle erfolgt chemisch durch Reaktion mit SF5- -Ionen. Basierend auf den Ergebnissen von Laborversuchen wurden die Betriebsparameter optimiert, die Einzelkomponenten im HALO-Rack zusammengestellt und eine Einlassleitung entworfen, die Wandeffekte minimiert und Untergrundmessungen und HNO3-Kalibrationen im Flug ermöglicht. Die Empfindlichkeit der Messung von HNO3 und HONO wurde ebenso im Labor untersucht wie Interferenzen mit Wasserdampf und Ozon. Die HONO-Vergleichskampagne FIONA am Europäischen Photoreaktor (EUPHORE) in Valencia war die erste Messkampagne mit AIMS. Bei den offenen Vergleichsmessungen stimmten die von AIMS gemessenen HONO-Mischungsverhältnisse innerhalb +-20% mit dem Median von 9 weiteren HONO-Messungen überein. Die ersten flugzeuggetragenen Messungen mit AIMS werden im Verlauf der HALO-Missionen ML-CIRRUS und TACTS stattfinden. Neben dem Aufbau und der Charakterisierung von AIMS war die Analyse der Aufnahme von HNO3 in Eispartikel von Kondensstreifen und Zirren Gegenstand dieser Arbeit. Die Aufnahme von HNO3 in Kondensstreifeneispartikel wurde erstmals systematisch anhand einer Flugzeugmesskampagne (CIRRUS-III) untersucht. Während CIRRUS-III im November 2006 wurden Zirren und zufällig knapp 40 persistente Kondensstreifen über Deutschland und Nordeuropa beprobt. Die Messungen fanden in Höhen zwischen 10 und 11.5 km und bei Temperaturen zwischen 210 und 230 K statt. Die HNO3-Konzentration wurde mit Hilfe von NOy-Messungen bestimmt. Im Mittel war in Kondensstreifen ein größerer Anteil des Gesamt-HNO3 in den Eispartikeln gebunden (6 %) als in Zirren (3 %). Das Gasphasenäquivalent des eisgebundenen HNO3 betrug in Zirren durchschnittlich 6 pmol/mol, in Kondensstreifen 14 pmol/mol und in jungen Kondensstreifen (Alter&lt;1 h) 21 pmol/mol. Das Mischungsverhältnis von HNO3 zu H2O in Eispartikeln war in Kondensstreifen leicht höher als in Zirren unter ähnlichen meteorologischen Bedingungen. Ursächlich für die höheren Werte in persistenten Kondensstreifen sind wahrscheinlich die hohen HNO3-Konzentrationen in den Abgasfahnen der Flugzeuge bei der Kondensstreifenbildung. Die beobachtete Abnahme des HNO3/H2O-Molverhältnisses mit zunehmendem Effektivdurchmesser der Eispartikel deutet an, dass die HNO3-Konzentrationen in Eispartikeln von jungen Kondensstreifen durch die Aufnahme von Abgas-HNO3 in die gefrierenden Aerosolpartikel bestimmt wird. Die Konzentrationen in älteren Kondensstreifen werden zunehmend durch das Vergraben von Umgebungs-HNO3 in wachsenden Eispartikeln kontrolliert. Diese Studie leistet einen Beitrag zu einem besseren Prozessverständnis der HNO3-Aufnahme in atmosphärische Eispartikel. Sie motiviert die Nutzung persistenter Kondensstreifen als atmosphärisches Labor zur Untersuchung der Spurengasaufnahme in wachsende Eispartikel.
Resumo:
Im Rahmen der interdisziplinären Zusammenarbeit zur Durchsetzung des »Menschenrecht Gesundheit« wurde ein geomedizinisches Informationssystem erstellt, das auf die nordexponierten Bergdörfer zwischen 350 m ü. NN und 450 m ü. NN des Kabupaten Sikka auf der Insel Flores in Indonesien anwendbar ist. Es wurde eine Analyse der Zeit-Raum-Dimension der Gesundheitssituation in Wololuma und Napun Lawan - exemplarisch für die nordexponierten Bergdörfer - durchgeführt. Im Untersuchungsraum wurden Gesundheitsgefahren und Gesundheitsrisiken analysiert, Zonen der Gefahren herausgearbeitet und Risikoräume bewertet. Trotz eines El Niño-Jahres waren prinzipielle Bezüge der Krankheiten zum jahreszeitlichen Rhythmus der wechselfeuchten Tropen zu erkennen. Ausgehend von der Vermutung, dass Krankheiten mit spezifischen Klimaelementen korrelieren, wurden Zusammenhänge gesucht. Für jede Krankheit wurden Makro-, Meso- und Mikrorisikoräume ermittelt. Somit wurden Krankheitsherde lokalisiert. Die Generalisierung des geomedizinischen Informationssystems lässt sich auf der Makroebene auf die nordexponierten Bergdörfer zwischen 350 m ü. NN und 450 m ü. NN des Kabupaten Sikka übertragen. Aus einer Vielzahl von angetroffenen Krankheiten wurden sechs Krankheiten selektiert. Aufgrund der Häufigkeitszahlen ergibt sich für das Gesundheitsrisiko der Bevölkerung eine Prioritätenliste:rn- Dermatomykosen (ganzjährig)rn- Typhus (ganzjährig)rn- Infektionen der unteren Atemwege (Übergangszeit)rn- Infektionen der oberen Atemwege (Übergangszeit)rn- Malaria (Regenzeit)rn- Struma (ganzjährig)rnDie Hauptrisikogruppe der Makroebene ist die feminine Bevölkerung. Betroffen sind weibliche Kleinkinder von null bis sechs Jahren und Frauen ab 41 Jahren. Die erstellten Karten des zeitlichen und räumlichen Verbreitungsmusters der Krankheiten und des Zugangs zu Gesundheitsdienstleistungen dienen Entscheidungsträgern als Entscheidungshilfe für den Einsatz der Mittel zur Primärprävention. Die Geographie als Wissenschaft mit ihren Methoden und dem Zeit-Raum-Modell hat gezeigt, dass sie die Basis für die interdisziplinäre Forschung darstellt. Die interdisziplinäre Zusammenarbeit zur Gesundheitsforschung im Untersuchungszeitraum 2009 hat sich bewährt und muss weiter ausgebaut werden. Die vorgeschlagenen Lösungsmöglichkeiten dienen der Minimierung des Gesundheitsrisikos und der Gesundheitsvorsorge. Da die Systemzusammenhänge der Ätiologie der einzelnen Krankheiten sehr komplex sind, besteht noch immer sehr großer Forschungsbedarf. rnDas Ergebnis der vorliegenden Untersuchung zeigt, dass Wasser in jeder Form die primäre Ursache für das Gesundheitsrisiko der Bergdörfer im Kabupaten Sikka auf der Insel Flores in Indonesien ist.rnDer Zugang zu Wasser ist unerlässlich für die Verwirklichung des »Menschenrecht Gesundheit«. Das Recht auf Wasser besagt, dass jeder Mensch Zugang zu nicht gesundheitsgefährdendem, ausreichendem und bezahlbarem Wasser haben soll. Alle Staaten dieser Erde sollten sich dieser Forderung verpflichtet fühlen.rn
Resumo:
Durch geologische Prozesse freigesetzte sowie biogen und anthropogen emittierte Gase werden hauptsächlich von der untersten Atmosphärenschicht, der Troposphäre, aufgenommen und abgebaut. Durch in die Troposphä¬re einfallende solare Strahlung wird ein Abbau des Großteils der emittierten Spurengase durch reaktive Radikale initiiert. Der wichtigste Vertreter dieser reaktiven Radikale in der Troposphäre ist das Hydroxylradikal (OH-Radikal), welches im schnellen Gleichgewicht mit Hydroperoxyradikalen (HO2-Radikal) vorliegt, sodass die Summe aus OH- und HO2-Radikalen oft als HOx zusammengefasst wird. HOx-Radikale bilden tagsüber den Hauptteil der Oxidationskapazität der Troposphäre und sind somit verantwortlich für den oxidativen Abbau vieler, auch chemisch und photolytisch stabiler, Spurengase. Daher wird die Oxidationskapazität als Selbstreinigungskraft der Troposphäre verstanden. rnIm Rahmen meiner Arbeit wurde die wissenschaftliche Fragestellung auf die Oxidationskapazität der Troposphäre über Europa fokussiert. Die Höhen- und Breitenverteilung der OH- und HO2-Mischungsverhältnisse und ihre jahreszeitliche Variation wurde während der flugzeuggestützten HOOVER-Kampagnen (HOOVER 1 & 2) charakterisiert, wobei ein Fokus auf der oberen Troposphäre lag. Es wird gezeigt, welchen Einfluss die einfallende Strahlung, die Variation von HOx-Vorläufersubstanzen (wie z. B. Ozon) und die Variation von Substanzen, die das HOx-Gleichgewicht beeinflussen (z. B. Stickstoffmonoxid), auf das HOx-Budget haben. rnEs wird beispielhaft für den Höhenbereich zwischen 8 und 9.5 km gezeigt, dass die Oxidationskapazität in der oberen Troposphäre des Sommers im Ver¬gleich zu der des Herbstes aufgrund von einer verstärkten HO2-Zyklierung im Mittel deutlich erhöht ist (500 %). rnDurch konvektiven Transport werden im Sommer im Gegensatz zum Herbst regelmäßig Luftmassen aus der planetaren Grenzschicht in die obere Troposphäre eingemischt. Daher wurden der konvektive Luftmassentransport und der Einfluss der eingemischten Spurengase auf die Oxidationskapazität der oberen Troposphäre anhand eines konvektiven Elements über Südostdeutschland untersucht. Wie in dieser Arbeit berichtet wird, wurden in den Luftmassen der Ausströmregion mit bis zu 3.5 pmol/mol (Maximum 10 s-Mittelwert) sehr hohe OH-Mischungsverhältnisse gefunden, die aus der HO2-Konversion mit NO gebildet wurden. Das modellierte HOx-Budget zeigt, dass die HOx-Chemie - unter den beobachteten Bedingungen in der Ausströmregion - durch HOx-Zyklierungsreaktionen beherrscht wird. rnDie gemessenen OH-Mischungsverhältnisse in der Ausströmregion liegen etwa um einen Faktor fünf höher, als die während dieses Fluges in der konvektiv unbeeinflussten oberen Troposphäre gemessenen OH-Mischungsverhältnisse. Am Beispiel der NO2- und CH4-Lebensdauer wird ein schnellerer Abbau von Spurengasen aufgrund der erhöhten Oxidationskapazität nachgewiesen. Aus der NO2-Lebensdauer wird abgeschätzt, wie lange die Oxidationskapazität aufgrund des konvektiven Transports von NOx in den Luftmassen des Ausströmgebietes erhöht ist.rnDie während den Kampagnen durchgeführten Messungen wurden genutzt, um Modellberechnungen des vertikalen HOx-Budgets (über Südschweden) und des meridionalen HOx-Budgets zwischen Nordeuropa und Korsika durchzuführen. Es wurde gezeigt, dass das Modell die OH- und HO2-Mischungsverhältnisse im Allgemeinen gut reproduziert (Modell/Messung: OH im Sommer 94 %, HO2 im Sommer 93 % im Herbst 95 %), wohingegen die vergleichsweise kleinen OH-Mischungsverhältnisse im Herbst aufgrund von einer überschätzten H2O2 abhängigen OH-Produktion stark überschätzt wurden (Modell/Messung: 147 %). rnZur Charakterisierung der Oxidationskapazität innerhalb der planetaren Grenzschicht wurden die DOMINO-Kampagnen durchgeführt. Dabei wurde die Zusammensetzung unterschiedlicher Luftmassen untersucht, die aus verschiedenen Herkunftsorten zum Messort transportiert wurden und aufgrund ihres Ursprungs kaum prozessierte bis prozessierte anthropogen emittierte Spurengase enthielten. Zusätzlich enthielt ein Teil der Luftmassen biogen emittierte Spurengase. Komplementäre Messungen ermöglichen die Berechnung der totalen OH-Produktion und den Vergleich mit den bekannten OH-Quellen. Der Vergleich zeigt, dass offenbar wichtige OH-Produktionskanäle durch die gemessenen Spurengase oder die durchgeführten Berechnungen nicht abgebildet werden. Es wird gezeigt, dass die Stärke der unbekannten OH-Quellen, vor allem unter niedrigen NO-Bedingungen, groß ist und mit den Isopren-, RO2- und HO2-Mischungsverhältnissen korreliert.rn
Resumo:
Hefen stellen einen großen und wichtigen Teil der Mikrobiota während der Weinbereitung dar, da ohne ihre alkoholische Fermentation die Umwandlung von Most und Wein nicht möglich wäre. Ferner ist es ihre Vielzahl an Stoffwechselprodukten, die dem Aroma des fertigen Weines eine zusätzliche Komplexität verleihen. Auf der anderen Seite steht durch den Metabolismus verschiedenster so genannter Wildhefen die Gefahr von Qualitätsabstufungen der Weine, was allgemein als „Weinfehler“ betrachtet wird. Ziel dieser Arbeit war zum einen die taxonomische Einordnung von Saccharomyces-Spezies, sowie die Quantifizierung und Hemmung von ausgewählten Wildhefen während der Weinbereitung.rnEin Teil dieser Arbeit umfasste die Identifizierung der nahverwandten Mitglieder der Saccharomyces sensu stricto-Gruppe. Durch den Einsatz des DNA-Fingerpinting-Systems SAPD-PCR konnten alle die Gruppe umfassenden Spezies anhand spezifischer Bandenmuster nachgewiesen werden, wodurch eine Einordnung dieser schwer zu differenzierenden Arten möglich war. Die Differenzierung zwischen den einzelnen Spezies war in jedem Fall deutlicher als dies die Sequenzierung der 5.8S rDNA und ihre flankierenden ITS-Regionen vermochte. Die SAPD-PCR zeichnete sich zudem durch eine geringe Muster-Varianz bei verschiedenen Stämmen einer Art aus und konnte zuverlässig unbekannte Stämme bestimmen und bereits hinterlegte Stämme neu klassifizieren. Zudem konnte mit Hilfe dieses Systems Hybride aus Saccharomyces cerevisiae und S. bayanus bzw. S. cerevisiae und S. kudriavzevii detektiert werden, wenn diese Hybride aus relativ gleichen genomischen Anteilen der Eltern bestanden. rnZusätzlich wurde ein quantitatives PCR-System entwickelt, um die Gattungen Saccharomyces, Hanseniaspora und Brettanomyces in Most und Wein detektieren und quantifizieren zu können. Die hierfür entwickelten Primer zeigten sich spezifisch für die untersuchten Arten. Durch die serielle Verdünnung definierter DNA-Mengen konnte für alle drei Systeme eine Kalibrierungskurve erstellt werden, mit Hilfe derer die tatsächlichen Quantifizierungen durchgeführt wurden. Die qPCR-Analyse lieferte ähnliche Zellzahlen wie Lebendzellzahl-Bestimmungen und wurde nicht von anderen Spezies und von Traubensaft gestört. Die maximal detektierbare Zellzahl betrug 2 x 107 Zellen/ml, während die minimale Detektionsgrenze je nach Art zwischen 1 x 102 Zellen/ml und 1 x 103 Zellen/ml lag. Allerdings konnte eine effektive DNA-Isolierung dieser geringen Zellzahlen nur erreicht werden, wenn die Zellzahl durch artfremde Hefen künstlich erhöht wurde. Die Analyse einer Most-Vergärung mit den drei Spezies zeigte schlussendlich, dass die quantitative PCR sicher und schnell Veränderungen und Sukzessionen detektiert und so ein geeignetes Mittel darstellt, um Populationsdynamiken während der Weinherstellung zu beobachten. rnDer letzte Teil dieser Arbeit befasste sich mit der Inhibierung von Schadhefen durch zellwand-hydrolysierende Enzyme. Es konnte hierbei eine endoglykosidisch wirkende β-1,3-Glucanase aus dem Bakterium Delftia tsuruhatensis isoliert werden. Diese besaß eine ungefähre Masse von 28 kDa, einen isolektrischen Punkt von ca. 4,3 und wirkte mit einer spezifischen Aktivität von 10 U/mg Protein gegen das Glucan Laminarin. Zudem zeigte das Enzym ein Temperaturoptimum von 50 °C und ein pH-Optimum bei pH 4,0. Weinparameter wie erhöhte Konzentrationen an Ethanol, Phenolen und Sulfit beeinflussten die Wirkung des Enzyms nicht oder nur wenig. Neben der allgemeinen Wirkung gegen β-1,3-Glucane konnte hier auch gezeigt werden, dass ebenso gut die β-1,3-Glucane in der Zellwand verschiedener Hefen hydrolysiert wurden. Fluoreszenz- und rasterelektronen-mikroskopische Aufnahmen von Hefezellen nach Inkubation mit der β-1,3-Glucanase zeigten zusätzlich die Zerstörung der Zelloberfläche der Hefen. Die lytische Wirkung des Enzyms wurde an verschiedenen weintypischen Hefen getestet. Hierbei zeigten sich stammspezifische Unterschiede in der Sensitivität gegenüber dem Enzym. Außerdem konnte festgestellt werden, dass sowohl Wachstumsphase als auch Medium der Hefen Einfluss auf deren Zellwand hat und somit auch auf die Wirkung des Enzyms.rn
Resumo:
Die vorliegende Arbeit untersucht, in wie weit sich sozioökonomische Entwicklung und die Einbindung in Globalisierungsprozesse verantwortlich für die demokratische Entwicklung postkommunistischer Transformationsstaaten zeigen. Zu diesem Zweck wird ein theoretisches Modell hergeleitet, welches die klassische Modernisierungstheorie um neuere Ansätze erweitert und um Aspekte der Globalisierungsforschung ergänzt. Die empirischen Resultate basieren auf einer quantitativen Betrachtung von 19 postkommunistischen Staaten im Zeitraum zwischen 1996 und 2009. Die Ergebnisse zeigen, dass sich sozioökonomische Entwicklung und ökonomische Aspekte der Globalisierung positiv auf die Demokratieentwicklung auswirken; eine ungleiche Verteilung von Einkommen in der Bevölkerung sowie soziale Globalisierungsaspekte hingegen weisen lediglich marginale Effekte auf.
Resumo:
Seit Anbeginn der Menschheitsgeschichte beeinflussen die Menschen ihre Umwelt. Durch anthropogene Emissionen ändert sich die Zusammensetzung der Atmosphäre, was einen zunehmenden Einfluss unter anderem auf die Atmosphärenchemie, die Gesundheit von Mensch, Flora und Fauna und das Klima hat. Die steigende Anzahl riesiger, wachsender Metropolen geht einher mit einer räumlichen Konzentration der Emission von Luftschadstoffen, was vor allem einen Einfluss auf die Luftqualität der windabwärts gelegenen ruralen Regionen hat. In dieser Doktorarbeit wurde im Rahmen des MEGAPOLI-Projektes die Abluftfahne der Megastadt Paris unter Anwendung des mobilen Aerosolforschungslabors MoLa untersucht. Dieses ist mit modernen, zeitlich hochauflösenden Instrumenten zur Messung der chemischen Zusammensetzung und Größenverteilung der Aerosolpartikel sowie einiger Spurengase ausgestattet. Es wurden mobile Messstrategien entwickelt und angewendet, die besonders geeignet zur Charakterisierung urbaner Emissionen sind. Querschnittsmessfahrten durch die Abluftfahne und atmosphärische Hintergrundluftmassen erlaubten sowohl die Bestimmung der Struktur und Homogenität der Abluftfahne als auch die Berechnung des Beitrags der urbanen Emissionen zur Gesamtbelastung der Atmosphäre. Quasi-Lagrange’sche Radialmessfahrten dienten der Erkundung der räumlichen Erstreckung der Abluftfahne sowie auftretender Transformationsprozesse der advehierten Luftschadstoffe. In Kombination mit Modellierungen konnte die Struktur der Abluftfahne vertieft untersucht werden. Flexible stationäre Messungen ergänzten den Datensatz und ließen zudem Vergleichsmessungen mit anderen Messstationen zu. Die Daten einer ortsfesten Messstation wurden zusätzlich verwendet, um die Alterung des organischen Partikelanteils zu beschreiben. Die Analyse der mobilen Messdaten erforderte die Entwicklung einer neuen Methode zur Bereinigung des Datensatzes von lokalen Störeinflüssen. Des Weiteren wurden die Möglichkeiten, Grenzen und Fehler bei der Anwendung komplexer Analyseprogramme zur Berechnung des O/C-Verhältnisses der Partikel sowie der Klassifizierung der Aerosolorganik untersucht. Eine Validierung verschiedener Methoden zur Bestimmung der Luftmassenherkunft war für die Auswertung ebenfalls notwendig. Die detaillierte Untersuchung der Abluftfahne von Paris ergab, dass diese sich anhand der Erhöhung der Konzentrationen von Indikatoren für unprozessierte Luftverschmutzung im Vergleich zu Hintergrundwerten identifizieren lässt. Ihre eher homogene Struktur kann zumeist durch eine Gauß-Form im Querschnitt mit einem exponentiellen Abfall der unprozessierten Schadstoffkonzentrationen mit zunehmender Distanz zur Stadt beschrieben werden. Hierfür ist hauptsächlich die turbulente Vermischung mit Umgebungsluftmassen verantwortlich. Es konnte nachgewiesen werden, dass in der advehierten Abluftfahne eine deutliche Oxidation der Aerosolorganik im Sommer stattfindet; im Winter hingegen ließ sich dieser Prozess während der durchgeführten Messungen nicht beobachten. In beiden Jahreszeiten setzt sich die Abluftfahne hauptsächlich aus Ruß und organischen Partikelkomponenten im PM1-Größenbereich zusammen, wobei die Quellen Verkehr und Kochen sowie zusätzlich Heizen in der kalten Jahreszeit dominieren. Die PM1-Partikelmasse erhöhte sich durch die urbanen Emissionen im Vergleich zum Hintergrundwert im Sommer in der Abluftfahne im Mittel um 30% und im Winter um 10%. Besonders starke Erhöhungen ließen sich für Polyaromaten beobachten, wo im Sommer eine mittlere Zunahme von 194% und im Winter von 131% vorlag. Jahreszeitliche Unterschiede waren ebenso in der Größenverteilung der Partikel der Abluftfahne zu finden, wo im Winter im Gegensatz zum Sommer keine zusätzlichen nukleierten kleinen Partikel, sondern nur durch Kondensation und Koagulation angewachsene Partikel zwischen etwa 10nm und 200nm auftraten. Die Spurengaskonzentrationen unterschieden sich ebenfalls, da chemische Reaktionen temperatur- und mitunter strahlungsabhängig sind. Weitere Anwendungsmöglichkeiten des MoLa wurden bei einer Überführungsfahrt von Deutschland an die spanische Atlantikküste demonstriert, woraus eine Kartierung der Luftqualität entlang der Fahrtroute resultierte. Es zeigte sich, dass hauptsächlich urbane Ballungszentren von unprozessierten Luftschadstoffen betroffen sind, advehierte gealterte Substanzen jedoch jede Region beeinflussen können. Die Untersuchung der Luftqualität an Standorten mit unterschiedlicher Exposition bezüglich anthropogener Quellen erweiterte diese Aussage um einen Einblick in die Variation der Luftqualität, abhängig unter anderem von der Wetterlage und der Nähe zu Emissionsquellen. Damit konnte gezeigt werden, dass sich die entwickelten Messstrategien und Analysemethoden nicht nur zur Untersuchung der Abluftfahne einer Großstadt, sondern auch auf verschiedene andere wissenschaftliche und umweltmesstechnische Fragestellungen anwenden lassen.
Resumo:
Tiefes Wissen über den Ceramid Stoffwechsel ist rudimentär für das Verständnis der Haut-Pathophysiologie (z.B. für atopische Dermatitis oder Psoriasis ) und unabdingbar für gezielte Therapieansätze. Wenn die zwei wichtigen Barriere Funktionen, gegen transepidermalen Wasserverlust und Pathogene Invasionen undicht werden, sind bestimmte Barriere Komponenten wie z.B. Ceramide stark verändert. In Haut und Hoden führt die Deletion der Ceramid-Synthase 3 zu einem Arrest der epidermalen Reifung und der Spermatogenese, welches ihre Bedeutung für eine intakte Barriere heraushebt. Sphingosin (So), ein Abbauprodukt von Cer, wurde als antimikrobielles Mittel identifiziert. So konnte das Wachstum von Candida albicans hemmen und die Invasion von Pathogenen in tiefere Hautschichten verringern, wodurch ihre mögliche Rolle in der Therapie von Hauterkrankungen gezeigt wurde. Auch eine neue Klasse von Ceramiden, die 1-O-acylceramide, wurde entdeckt. 1-O-acylceramide könnten zu einer funktionellen Wasserdurchlässigkeit Barriere beitragen, da sie zu den hydrophobesten der epidermalen Cers gehören. Die neutrale Glucosylceramidase scheint topologisch mit der 1-Oacylceramid Produktion verbunden zu sein, sowie die Enzyme der Diacylglycerol O-Acyltransferase-2 (DGAT2) Familie eine Rolle dabei spielen könnten. Die Identifizierung der für die 1-O-acylceramid Synthese verantwortlichen Enzyme wir Gegenstand weiterer Forschung sein, jedoch zeigten Untersuchungen an Mäusen, defizient für die saure Ceramidase (Farber-Krankheit), dass Makrophagen ein weiterer potenzieller Produktionsort sein könnten.
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
Ritualisiertes Handeln, der Gebrauch von Gesten und zeremonielle Vorgänge bildeten insbesondere in vormodernen Gesellschaften zentrale Mittel für die Herstellung und den Ausdruck sozialer Ordnung. Gegliedert nach den drei Kernbereichen Liturgie, Recht und Politik präsentiert der vorliegende Band in interdisziplinärem Zugriff ausgewählte Aspekte der Anlage und Wirkung von Ritualen. Einleitend werden methodische Grundsatzfragen an exemplarischen Gegenständen aus der Sicht der Kunstgeschichte, der Theaterwissenschaft und der Geschichtswissenschaft dargestellt.