62 resultados para Wirbelstromproblem, parabolisch-elliptische partielle Differentialgleichung, variationelle Formulierung, inverses Problem, Regularisierung
Resumo:
Zielgerichtete Orientierung ermöglicht es Lebewesen, überlebenswichtige Aufgaben, wie die Suche nach Ressourcen, Fortpflanzungspartnern und sicheren Plätzen zu bewältigen. Dafür ist es essentiell, die Umgebung sensorisch wahrzunehmen, frühere Erfahrungen zu speichern und wiederabzurufen und diese Informationen zu integrieren und in motorische Aktionen umzusetzen.rnWelche Neuronengruppen vermitteln zielgerichtete Orientierung im Gehirn einer Fliege? Welche sensorischen Informationen sind in einem gegebenen Kontext relevant und wie werden diese Informationen sowie gespeichertes Vorwissen in motorische Aktionen übersetzt? Wo findet im Gehirn der Übergang von der sensorischen Verarbeitung zur motorischen Kontrolle statt? rnDer Zentralkomplex, ein Verbund von vier Neuropilen des Zentralhirns von Drosophila melanogaster, fungiert als Übergang zwischen in den optischen Loben vorverarbeiteten visuellen Informationen und prämotorischem Ausgang. Die Neuropile sind die Protocerebralbrücke, der Fächerförmige Körper, der Ellipsoidkörper und die Noduli. rnIn der vorliegenden Arbeit konnte gezeigt werden, dass Fruchtfliegen ein räumliches Arbeitsgedächtnis besitzen. Dieses Gedächtnis kann aktuelle visuelle Information ersetzen, wenn die Sicht auf das Zielobjekt verloren geht. Dies erfordert die sensorische Wahrnehmung von Zielobjekten, die Speicherung der Position, die kontinuierliche Integration von Eigen-und Objektposition, sowie die Umsetzung der sensorischen Information in zielgerichtete Bewegung. Durch konditionale Expression von Tetanus Toxin mittels des GAL4/UAS/GAL80ts Systems konnte gezeigt werden, dass die Ringneurone, welche in den Ellipsoidkörper projizieren, für das Orientierungsgedächtnis notwendig sind. Außerdem konnte gezeigt werden, dass Fliegen, denen die ribosomale Serinkinase S6KII fehlt, die Richtung verlieren, sobald keine Objekte mehr sichtbar sind und, dass die partielle Rettung dieser Kinase ausschließlich in den Ringneuronenklassen R3 und R4d hinreichend ist, um das Gedächtnis wieder herzustellen. Bei dieser Gedächtnisleistung scheint es sich um eine idiothetische Form der Orientierung zu handeln. rn Während das räumliche Arbeitsgedächtnis nach Verschwinden von Objekten relevant ist, wurde in der vorliegende Arbeit auch die Vermittlung zielgerichteter Bewegung auf sichtbare Objekte untersucht. Dabei wurde die zentrale Frage bearbeitet, welche Neuronengruppen visuelle Orientierung vermitteln. Anhand von Gehirnstrukturmutanten konnte gezeigt werden, dass eine intakte Protocerebralbrücke notwendig ist, um Laufgeschwindigkeit, Laufaktivität und Zielgenauigkeit bei der Ansteuerung visueller Stimuli korrekt zu vermitteln. Dabei scheint das Horizontale Fasersystem, welches von der Protocerebralbrücke über den Fächerförmigen Körper auf den Zentralkomplex assoziierte Neuropile, die Ventralkörper, projiziert, notwendig für die lokomotorische Kontrolle und die zielgenaue Bewegung zu sein. Letzeres konnte zum einen durch Blockade der synaptischen Transmission anhand konditionaler Tetanus Toxin Expression mittels des GAL4/UAS/GAL80ts Systems im Horizontalen Fasersystem gezeigt werden;. zum anderen auch durch partielle Rettung der in den Strukturmutanten betroffenen Gene. rn Den aktuellen Ergebnissen und früheren Studien folgend, ergibt sich dabei ein Modell, wie zielgerichtete Bewegung auf visuelle Stimuli neuronal vermittelt werden könnte. Nach diesem Modell bildet die Protocerebralbrücke die Azimuthpositionen von Objekten ab und das Horizontale Fasersystem vermittelt die entsprechende lokomotorische Wo-Information für zielgerichtete Bewegungen. Die Eigenposition in Relation zum Zielobjekt wird über die Ringneurone und den Ellipsoidkörper vermittelt. Wenn das Objekt aus der Sicht verschwindet, kann die Relativposition ideothetisch ermittelt werden und integriert werden mit Vorinformation über das Zielobjekt, die im Fächerförmigen Körper abgelegt ist (Was-Information). Die resultierenden Informationen könnten dann über das Horizontale Fasersystem in den Ventralkörpern auf absteigende Neurone gelangen und in den Thorax zu den motorischen Zentren weitergeleitet werden.rn
Resumo:
The asymptotic safety scenario allows to define a consistent theory of quantized gravity within the framework of quantum field theory. The central conjecture of this scenario is the existence of a non-Gaussian fixed point of the theory's renormalization group flow, that allows to formulate renormalization conditions that render the theory fully predictive. Investigations of this possibility use an exact functional renormalization group equation as a primary non-perturbative tool. This equation implements Wilsonian renormalization group transformations, and is demonstrated to represent a reformulation of the functional integral approach to quantum field theory.rnAs its main result, this thesis develops an algebraic algorithm which allows to systematically construct the renormalization group flow of gauge theories as well as gravity in arbitrary expansion schemes. In particular, it uses off-diagonal heat kernel techniques to efficiently handle the non-minimal differential operators which appear due to gauge symmetries. The central virtue of the algorithm is that no additional simplifications need to be employed, opening the possibility for more systematic investigations of the emergence of non-perturbative phenomena. As a by-product several novel results on the heat kernel expansion of the Laplace operator acting on general gauge bundles are obtained.rnThe constructed algorithm is used to re-derive the renormalization group flow of gravity in the Einstein-Hilbert truncation, showing the manifest background independence of the results. The well-studied Einstein-Hilbert case is further advanced by taking the effect of a running ghost field renormalization on the gravitational coupling constants into account. A detailed numerical analysis reveals a further stabilization of the found non-Gaussian fixed point.rnFinally, the proposed algorithm is applied to the case of higher derivative gravity including all curvature squared interactions. This establishes an improvement of existing computations, taking the independent running of the Euler topological term into account. Known perturbative results are reproduced in this case from the renormalization group equation, identifying however a unique non-Gaussian fixed point.rn
Resumo:
Die Herstellung von Polymer-Solarzellen aus wässriger Phase stellt eine attraktive Alternative zu der konventionellen lösemittelbasierten Formulierung dar. Die Vorteile der aus wässriger Lösung hergestellten Solarzellen liegen besonders in dem umweltschonenden Herstellungsprozess und in der Möglichkeit, druckbare optoelektronische Bauteile zu generieren. Die Prozessierbarkeit von hydrophoben Halbleitern im wässrigen Milieu wird durch die Dispergierung der Materialien, in Form von Nanopartikeln, erreicht. Der Transfer der Halbleiter in eine Dispersion erfolgt über die Lösemittelverdampfungsmethode. Die Idee der Verwendung von partikelbasierte Solarzellen wurde bereits umgesetzt, allerdings blieben eine genaue Charakterisierung der Partikel sowie ein umfassendes Verständnis des gesamten Fabrikationsvorgangs aus. Deshalb besteht das Ziel dieser Arbeit darin, einen detaillierten Einblick in den Herstellungsprozess von partikelbasierten Solarzellen zu erlangen, mögliche Schwächen aufzudecken, diese zu beseitigen, um so zukünftige Anwendungen zu verbessern. Zur Herstellung von Solarzellen aus wässrigen Dispersionen wurde Poly(3-hexylthiophen-2,5-diyl)/[6,6]-Phenyl-C61-Buttersäure-Methylester (P3HT/PCBM) als Donor/Akzeptor-System verwendet. Die Kernpunkte der Untersuchungen richteten sich zum einen die auf Partikelmorphologie und zum anderen auf die Generierung einer geeigneten Partikelschicht. Beide Parameter haben Auswirkungen auf die Solarzelleneffizienz. Die Morphologie wurde sowohl spektroskopisch über Photolumineszenz-Messungen, als auch visuell mittels Elektronenmikroskopie ermittelt. Auf diese Weise konnte die Partikelmorphologie vollständig aufgeklärt werden, wobei Parallelen zu der Struktur von lösemittelbasierten Solarzellen gefunden wurden. Zudem wurde eine Abhängigkeit der Morphologie von der Präparationstemperatur beobachtet, was eine einfache Steuerung der Partikelstruktur ermöglicht. Im Zuge der Partikelschichtausbildung wurden direkte sowie grenzflächenvermittelnde Beschichtungsmethoden herangezogen. Von diesen Techniken hatte sich aber nur die Rotationsbeschichtung als brauchbare Methode erwiesen, Partikel aus der Dispersion in einen homogenen Film zu überführen. Des Weiteren stand die Aufarbeitung der Partikelschicht durch Ethanol-Waschung und thermische Behandlung im Fokus dieser Arbeit. Beide Maßnahmen wirkten sich positiv auf die Effizienz der Solarzellen aus und trugen entscheidend zu einer Verbesserung der Zellen bei. Insgesamt liefern die gewonnen Erkenntnisse einen detaillierten Überblick über die Herausforderungen, welche bei dem Einsatz von wasserbasierten Dispersionen auftreten. Die Anforderungen partikelbasierter Solarzellen konnten offengelegt werden, dadurch gelang die Herstellung einer Solarzelle mit einer Effizienz von 0.53%. Dieses Ergebnis stellt jedoch noch nicht das Optimum dar und lässt noch Möglichkeiten für Verbesserungen offen.
Resumo:
This thesis deals with three different physical models, where each model involves a random component which is linked to a cubic lattice. First, a model is studied, which is used in numerical calculations of Quantum Chromodynamics.In these calculations random gauge-fields are distributed on the bonds of the lattice. The formulation of the model is fitted into the mathematical framework of ergodic operator families. We prove, that for small coupling constants, the ergodicity of the underlying probability measure is indeed ensured and that the integrated density of states of the Wilson-Dirac operator exists. The physical situations treated in the next two chapters are more similar to one another. In both cases the principle idea is to study a fermion system in a cubic crystal with impurities, that are modeled by a random potential located at the lattice sites. In the second model we apply the Hartree-Fock approximation to such a system. For the case of reduced Hartree-Fock theory at positive temperatures and a fixed chemical potential we consider the limit of an infinite system. In that case we show the existence and uniqueness of minimizers of the Hartree-Fock functional. In the third model we formulate the fermion system algebraically via C*-algebras. The question imposed here is to calculate the heat production of the system under the influence of an outer electromagnetic field. We show that the heat production corresponds exactly to what is empirically predicted by Joule's law in the regime of linear response.
Resumo:
Die theoretische und experimentelle Untersuchung von wasserstoffähnlichen Systemen hat in den letzten hundert Jahren immer wieder sowohl die experimentelle als auch die theoretische Physik entscheidend vorangebracht. Formulierung und Test der Quantenelektrodynamik (QED) standen und stehen in engen Zusammenhang mit der Untersuchung wasserstoffähnlicher Systeme. Gegenwärtig sind besonders wasserstoffähnliche Systeme schwerer Ionen von Interesse, um die QED in den extrem starken Feldern in Kernnähe zu testen. Laserspektroskopische Messungen der Hyperfeinstrukturaufspaltung des Grundzustandes bieten eine hohe Genauigkeit, ihre Interpretation wird jedoch durch die Unsicherheit in der Größe der Kernstruktureffekte erschwert. Beseitigt werden können diese durch die Kombination der Aufspaltung in wasserstoff- und lithiumähnlichen Ionen des gleichen Nuklids. In den letzten zwei Jahrzehnten scheiterten mehrere dadurch motivierte Versuche, den HFS-Übergang in lithiumähnlichen 209Bi80+ zu finden. Im Rahmen dieser Arbeit wurde kollineare Laserspektroskopie bei etwa 70% der Lichtgeschwindigkeit an 209Bi82+ und 209Bi80+ -Ionen im Experimentier- Speicherring an der GSI in Darmstadt durchgeführt. Dabei wurde der Übergang im lithiumähnlichen Bismut erstmals beobachtet und dessen Übergangswellenlänge zu 1554,74(74) nm bestimmt. Ein eigens für dieses Experiment optimiertes Fluoreszenz-Nachweissystem stellte dabei die entscheidende Verbesserung gegenüber den gescheiterten Vorgängerexperimenten dar. Der Wellenlängenfehler ist dominiert von der Unsicherheit der Ionengeschwindigkeit, die für die Transformation in das Ruhesystem der Ionen entscheidend ist. Für deren Bestimmung wurden drei Ansätze verfolgt: Die Geschwindigkeit wurde aus der Elektronenkühlerspannung bestimmt, aus dem Produkt von Orbitlänge und Umlauffrequenz und aus dem relativistischen Dopplereffekt unter Annahme der Korrektheit des früher bestimmten Überganges in wasserstoffähnlichen Bismut. Die Spannungskalibration des Elektronenkühlers wurde im Rahmen dieser Arbeit erstmals kritisch evaluiert und bislang unterschätzte systematische Unsicherheiten aufgezeigt, die derzeit einen aussagekräftigen QED-Test verhindern. Umgekehrt konnte unter Verwendung der QED-Berechnungen eine Ionengeschwindigkeit berechnet werden, die ein genaueres und konsistenteres Resultat für die Übergangswellenlängen beider Ionenspezies liefert. Daraus ergibt sich eine Diskrepanz zu dem früher bestimmten Wert des Überganges in wasserstoffähnlichen Bismut, die es weiter zu untersuchen gilt.
Resumo:
Zusammenfassung In der vorliegenden Arbeit besch¨aftige ich mich mit Differentialgleichungen von Feynman– Integralen. Ein Feynman–Integral h¨angt von einem Dimensionsparameter D ab und kann f¨ur ganzzahlige Dimension als projektives Integral dargestellt werden. Dies ist die sogenannte Feynman–Parameter Darstellung. In Abh¨angigkeit der Dimension kann ein solches Integral divergieren. Als Funktion in D erh¨alt man eine meromorphe Funktion auf ganz C. Ein divergentes Integral kann also durch eine Laurent–Reihe ersetzt werden und dessen Koeffizienten r¨ucken in das Zentrum des Interesses. Diese Vorgehensweise wird als dimensionale Regularisierung bezeichnet. Alle Terme einer solchen Laurent–Reihe eines Feynman–Integrals sind Perioden im Sinne von Kontsevich und Zagier. Ich beschreibe eine neue Methode zur Berechnung von Differentialgleichungen von Feynman– Integralen. ¨ Ublicherweise verwendet man hierzu die sogenannten ”integration by parts” (IBP)– Identit¨aten. Die neue Methode verwendet die Theorie der Picard–Fuchs–Differentialgleichungen. Im Falle projektiver oder quasi–projektiver Variet¨aten basiert die Berechnung einer solchen Differentialgleichung auf der sogenannten Griffiths–Dwork–Reduktion. Zun¨achst beschreibe ich die Methode f¨ur feste, ganzzahlige Dimension. Nach geeigneter Verschiebung der Dimension erh¨alt man direkt eine Periode und somit eine Picard–Fuchs–Differentialgleichung. Diese ist inhomogen, da das Integrationsgebiet einen Rand besitzt und daher nur einen relativen Zykel darstellt. Mit Hilfe von dimensionalen Rekurrenzrelationen, die auf Tarasov zur¨uckgehen, kann in einem zweiten Schritt die L¨osung in der urspr¨unglichen Dimension bestimmt werden. Ich beschreibe außerdem eine Methode, die auf der Griffiths–Dwork–Reduktion basiert, um die Differentialgleichung direkt f¨ur beliebige Dimension zu berechnen. Diese Methode ist allgemein g¨ultig und erspart Dimensionswechsel. Ein Erfolg der Methode h¨angt von der M¨oglichkeit ab, große Systeme von linearen Gleichungen zu l¨osen. Ich gebe Beispiele von Integralen von Graphen mit zwei und drei Schleifen. Tarasov gibt eine Basis von Integralen an, die Graphen mit zwei Schleifen und zwei externen Kanten bestimmen. Ich bestimme Differentialgleichungen der Integrale dieser Basis. Als wichtigstes Beispiel berechne ich die Differentialgleichung des sogenannten Sunrise–Graphen mit zwei Schleifen im allgemeinen Fall beliebiger Massen. Diese ist f¨ur spezielle Werte von D eine inhomogene Picard–Fuchs–Gleichung einer Familie elliptischer Kurven. Der Sunrise–Graph ist besonders interessant, weil eine analytische L¨osung erst mit dieser Methode gefunden werden konnte, und weil dies der einfachste Graph ist, dessen Master–Integrale nicht durch Polylogarithmen gegeben sind. Ich gebe außerdem ein Beispiel eines Graphen mit drei Schleifen. Hier taucht die Picard–Fuchs–Gleichung einer Familie von K3–Fl¨achen auf.
Resumo:
Die vorliegende Arbeit geht der Frage nach, ob die Qualität der Demokratie in Bulgarien nach dem EU-Beitritt nachgelassen hat und wenn ja, in welchen Bereichen. Ausgangspunkt für die Formulierung dieser Frage sind Medienberichte, denen zufolge Bulgarien nach dem Beitritt zur Europäischen Union Rückschritte in seiner Demokratieentwicklung, vor allem im Bereich der Rechtsstaatlichkeit, gemacht habe. Theoretische Grundlage für die Analyse ist das Konzept der defekten Demokratie von Wolfgang Merkel, Hans-Jürgen Puhle, Aurel Croissant, Claudia Eicher und Peter Thiery. Die Veränderungen des Demokratiegehalts für die Jahre des Untersuchungszeitraums (2006 bis 2011) werden anhand des Index Defekter Demokratie erfasst. Die Ergebnisse der Analyse zeigen, dass die Qualität der Demokratie in Bulgarien nach dem EU-Beitritt tatsächlich abgenommen hat. Die deutlichste Zunahme von Defekten ist dabei auf der Dimension des liberalen Rechts- und Verfassungsstaates festzustellen, was vor allem auf den Anstieg der Korruption während des Untersuchungszeitraums zurückzuführen ist.
Resumo:
Die causa finalis der vorliegenden Arbeit ist das Verständnis des Phasendiagramms von Wasserstoff bei ultrahohen Drücken, welche von nichtleitendem H2 bis hin zu metallischem H reichen. Da die Voraussetzungen für ultrahohen Druck im Labor schwer zu schaffen sind, bilden Computersimulationen ein wichtiges alternatives Untersuchungsinstrument. Allerdings sind solche Berechnungen eine große Herausforderung. Eines der größten Probleme ist die genaue Auswertung des Born-Oppenheimer Potentials, welches sowohl für die nichtleitende als auch für die metallische Phase geeignet sein muss. Außerdem muss es die starken Korrelationen berücksichtigen, die durch die kovalenten H2 Bindungen und die eventuellen Phasenübergänge hervorgerufen werden. Auf dieses Problem haben unsere Anstrengungen abgezielt. Im Kontext von Variationellem Monte Carlo (VMC) ist die Shadow Wave Function (SWF) eine sehr vielversprechende Option. Aufgrund ihrer Flexibilität sowohl lokalisierte als auch delokalisierte Systeme zu beschreiben sowie ihrer Fähigkeit Korrelationen hoher Ordnung zu berücksichtigen, ist sie ein idealer Kandidat für unsere Zwecke. Unglücklicherweise bringt ihre Formulierung ein Vorzeichenproblem mit sich, was die Anwendbarkeit limitiert. Nichtsdestotrotz ist es möglich diese Schwierigkeit zu umgehen indem man die Knotenstruktur a priori festlegt. Durch diesen Formalismus waren wir in der Lage die Beschreibung der Elektronenstruktur von Wasserstoff signifikant zu verbessern, was eine sehr vielversprechende Perspektive bietet. Während dieser Forschung haben wir also die Natur des Vorzeichenproblems untersucht, das sich auf die SWF auswirkt, und dabei ein tieferes Verständnis seines Ursprungs erlangt. Die vorliegende Arbeit ist in vier Kapitel unterteilt. Das erste Kapitel führt VMC und die SWF mit besonderer Ausrichtung auf fermionische Systeme ein. Kapitel 2 skizziert die Literatur über das Phasendiagramm von Wasserstoff bei ultrahohem Druck. Das dritte Kapitel präsentiert die Implementierungen unseres VMC Programms und die erhaltenen Ergebnisse. Zum Abschluss fasst Kapitel 4 unsere Bestrebungen zur Lösung des zur SWF zugehörigen Vorzeichenproblems zusammen.
Resumo:
Im Bereich sicherheitsrelevanter eingebetteter Systeme stellt sich der Designprozess von Anwendungen als sehr komplex dar. Entsprechend einer gegebenen Hardwarearchitektur lassen sich Steuergeräte aufrüsten, um alle bestehenden Prozesse und Signale pünktlich auszuführen. Die zeitlichen Anforderungen sind strikt und müssen in jeder periodischen Wiederkehr der Prozesse erfüllt sein, da die Sicherstellung der parallelen Ausführung von größter Bedeutung ist. Existierende Ansätze können schnell Designalternativen berechnen, aber sie gewährleisten nicht, dass die Kosten für die nötigen Hardwareänderungen minimal sind. Wir stellen einen Ansatz vor, der kostenminimale Lösungen für das Problem berechnet, die alle zeitlichen Bedingungen erfüllen. Unser Algorithmus verwendet Lineare Programmierung mit Spaltengenerierung, eingebettet in eine Baumstruktur, um untere und obere Schranken während des Optimierungsprozesses bereitzustellen. Die komplexen Randbedingungen zur Gewährleistung der periodischen Ausführung verlagern sich durch eine Zerlegung des Hauptproblems in unabhängige Unterprobleme, die als ganzzahlige lineare Programme formuliert sind. Sowohl die Analysen zur Prozessausführung als auch die Methoden zur Signalübertragung werden untersucht und linearisierte Darstellungen angegeben. Des Weiteren präsentieren wir eine neue Formulierung für die Ausführung mit fixierten Prioritäten, die zusätzlich Prozessantwortzeiten im schlimmsten anzunehmenden Fall berechnet, welche für Szenarien nötig sind, in denen zeitliche Bedingungen an Teilmengen von Prozessen und Signalen gegeben sind. Wir weisen die Anwendbarkeit unserer Methoden durch die Analyse von Instanzen nach, welche Prozessstrukturen aus realen Anwendungen enthalten. Unsere Ergebnisse zeigen, dass untere Schranken schnell berechnet werden können, um die Optimalität von heuristischen Lösungen zu beweisen. Wenn wir optimale Lösungen mit Antwortzeiten liefern, stellt sich unsere neue Formulierung in der Laufzeitanalyse vorteilhaft gegenüber anderen Ansätzen dar. Die besten Resultate werden mit einem hybriden Ansatz erzielt, der heuristische Startlösungen, eine Vorverarbeitung und eine heuristische mit einer kurzen nachfolgenden exakten Berechnungsphase verbindet.
Resumo:
Die BBC-Serie SHERLOCK war 2011 eine der meistexportierten Fernsehproduktionen Großbritanniens und wurde weltweit in viele Sprachen übersetzt. Eine der Herausforderungen bei der Übersetzung stellen die Schrifteinblendungen der Serie (kurz: Inserts) dar. Die Inserts versprachlichen die Gedanken des Protagonisten, bilden schriftliche und digitale Kommunikation ab und zeichnen sich dabei durch ihre visuelle Auffälligkeit und teilweise als einzige Träger sprachlicher Kommunikation aus, womit sie zum wichtigen ästhetischen und narrativen Mittel in der Serie werden. Interessanterweise sind in der Übersetztung alle stilistischen Eigenschaften der Original-Inserts erhalten. In dieser Arbeit wird einerseits untersucht, wie Schrifteinblendungen im Film theoretisch beschrieben werden können, und andererseits, was sie in der Praxis so übersetzt werden können, wie es in der deutschen Version von Sherlock geschah. Zur theoretischen Beschreibung werden zunächst die Schrifteinblendungen in Sherlock Untertitelungsnormen anhand relevanter grundlegender semiotischer Dimensionen gegenübergestellt. Weiterhin wird das Verhältnis zwischen Schrifteinblendungen und Filmbild erkundet. Dazu wird geprüft, wie gut verschiedene Beschreibungsansätze zu Text-Bild-Verhältnissen aus der Sprachwissenschaft, Comicforschung, Übersetzungswissenschaft und Typografie die Einblendungen in Sherlock erklären können. Im praktischen Teil wird die Übersetzung der Einblendungen beleuchtet. Der Übersetzungsprozess bei der deutschen Version wird auf Grundlage eines Experteninterviews mit dem Synchronautor der Serie rekonstruiert, der auch für die Formulierung der Inserts zuständig war. Abschließend werden spezifische Übersetzungsprobleme der Inserts aus der zweiten Staffel von SHERLOCK diskutiert. Es zeigt sich, dass Untertitelungsnormen zur Beschreibung von Inserts nicht geeignet sind, da sie in Dimensionen wie Position, grafische Gestaltung, Animation, Soundeffekte, aber auch Timing stark eingeschränkt sind. Dies lässt sich durch das historisch geprägte Verständnis von Untertiteln erklären, die als möglichst wenig störendes Beiwerk zum fertigen Filmbild und -ablauf (notgedrungen) hinzugefügt werden, wohingegen für die Inserts in SHERLOCK teilweise sogar ein zentraler Platz in der Bild- und Szenenkomposition bereits bei den Dreharbeiten vorgesehen wurde. In Bezug auf Text-Bild-Verhältnisse zeigen sich die größten Parallelen zu Ansätzen aus der Comicforschung, da auch dort schriftliche Texte im Bild eingebettet sind anstatt andersherum. Allerdings sind auch diese Ansätze zur Beschreibung von Bewegung und Ton unzureichend. Die Erkundung der Erklärungsreichweite weiterer vielversprechender Konzepte, wie Interface und Usability, bleibt ein Ziel für künftige Studien. Aus dem Experteninterview lässt sich schließen, dass die Übersetzung von Inserts ein neues, noch unstandardisiertes Verfahren ist, in dem idiosynkratische praktische Lösungen zur sprachübergreifenden Kommunikation zwischen verschiedenen Prozessbeteiligten zum Einsatz kommen. Bei hochqualitative Produktionen zeigt ist auch für die ersetzende Insertübersetzung der Einsatz von Grafikern unerlässlich, zumindest für die Erstellung neuer Inserts als Übersetzungen von gefilmtem Text (Display). Hierbei sind die theoretisch möglichen Synergien zwischen Sprach- und Bildexperten noch nicht voll ausgeschöpft. Zudem zeigt sich Optimierungspotential mit Blick auf die Bereitstellung von sorgfältiger Dokumentation zur ausgangssprachlichen Version. Diese wäre als Referenzmaterial für die Übersetzung insbesondere auch für Zwecke der internationalen Qualitätssicherung relevant. Die übersetzten Inserts in der deutschen Version weisen insgesamt eine sehr hohe Qualität auf. Übersetzungsprobleme ergeben sich für das genretypische Element der Codes, die wegen ihrer Kompaktheit und multiplen Bezügen zum Film eine Herausforderung darstellen. Neben weiteren bekannten Übersetzungsproblemen wie intertextuellen Bezügen und Realia stellt sich immer wieder die Frage, wieviel der im Original dargestellten Insert- und Displaytexte übersetzt werden müssen. Aus Gründen der visuellen Konsistenz wurden neue Inserts zur Übersetzung von Displays notwendig. Außerdem stellt sich die Frage insbesondere bei Fülltexten. Sie dienen der Repräsentation von Text und der Erweiterung der Grenzen der fiktiv dargestellten Welt, sind allerdings mit hohem Übersetzungsaufwand bei minimaler Bedeutung für die Handlung verbunden.
Resumo:
In this study a novel method MicroJet reactor technology was developed to enable the custom preparation of nanoparticles. rnDanazol/HPMCP HP50 and Gliclazide/Eudragit S100 nanoparticles were used as model systems for the investigation of effects of process parameters and microjet reactor setup on the nanoparticle properties during the microjet reactor construction. rnFollowing the feasibility study of the microjet reactor system, three different nanoparticle formulations were prepared using fenofibrate as model drug. Fenofibrate nanoparticles stabilized with poloxamer 407 (FN), fenofibrate nanoparticles in hydroxypropyl methyl cellulose phthalate (HPMCP) matrix (FHN) and fenofibrate nanoparticles in HPMCP and chitosan matrix (FHCN) were prepared under controlled precipitation using MicroJet reactor technology. Particle sizes of all the nanoparticle formulations were adjusted to 200-250 nm. rnThe changes in the experimental parameters altered the system thermodynamics resulting in the production of nanoparticles between 20-1000 nm (PDI<0.2) with high drug loading efficiencies (96.5% in 20:1 polymer:drug ratio).rnDrug releases from all nanoparticle formulations were fast and complete after 15 minutes both in FaSSIF and FeSSIF medium whereas in mucodhesiveness tests, only FHCN formulation was found to be mucoadhesive. Results of the Caco-2 studies revealed that % dose absorbed values were significantly higher (p<0.01) for FHCN in both cases where FaSSIF and FeSSIF were used as transport buffer.rn
Resumo:
Die Arzneimittelcompliance hat eine hohe Vorhersagekraft für den Ausgang einer Organtransplantation. Allerdings wurden soweit keine Studien zur Arzneimittelcompliance mittels eletronischen Compliancemessung bei Dialyse- und Leberzirrhosepatienten durchgeführt. Das primäre Ziel dieser Studie war die Arzneimittelcompliance dieser beiden Patientenkollektive zu evaluieren und als sekundäres Ziel wurden die Einflussfaktoren von Non-Compliance untersucht. rnLeberzirrhosepatinten, die Propranolol und Dialysepatienten, die Phosphatbinder, jeweils 3 x tgl. einnahmen, konnten in der Studie teilnehmen. Die Arzneimittelcompliance wurde mittels MEMSTM über einen Zeitraum von jeweils 6 Monaten bestimmt. Des Weiteren wurde nach Einflussfaktoren wie die demopraphischen Daten, Depression, Lebensqualität und der Gesundheitszustand, bei den Dialysepatienten zusätzlich die Formulierung der Phosphatbinder und die Anzahl evaluiert. Zwischen den organinsuffizienten Patientenkollektiven war ein signifikanter Unterschied in der Dosing Compliancerate auszumachen (p<0,023). Die mittlere DC Rate war bei 61%±6% für Leberzirrhosepatienten im Vergleich zu 43%±5% in Dialysepatienten. Nur 10 Leberzirrhosepatienten (30%) and 6 Dialysepatienten (17%) konnten als compliant eingestuft werden. Je höher die Phosphatbinderdosen waren, umso niedrigere Dosing Complianceraten wurden erzielt. Bei 1,5-3 Tabletten pro Tag betrug die Compliancerate 55%±8% (n=16), bei 4-6 Tabletten pro Tag nur noch 37%±7% (n=15) und bei mehr als 7 Tabletten lediglich 21%±10% (n=5) (p<0,036). Bei den Dialysepatienten war jedoch auffällig, dass die Dosing Compliancerate in Abhängigkeit von der Anzahl der dokumentierten Erkrankungen inkl. Grunderkrankung stieg (Dosing Compliancerate 34%±9% für ≤1 Grunderkrankung, 42%±6% für 1-4 Komorbiditäten, 83%±3% für ≥5 Komorbiditäten; p<0,036).Das geringe Patientenwissen über die Arzneimittel und die Erkrankung und die niedrige Compliancerate bedürfen weitere Untersuchungen um die Aspekte zu verbessern. Diese Studie zeigte das eine pharmazeutische Betreuung schon vor einer Transplantation benötigt wird. Aber eine pharmazeutische Betreuung ist sehr kosten- und zeitintensiv. Vielleicht müssen neue Modelle der pharmazeutische Betreuung untersucht werden oder non-compliante Patienten müssen noch besser identifiziert werden für eine selektive pharmazeutische Betreuung.
Resumo:
Die Entstehung und Evolution des genetischen Codes, der die Nukleotidsequenz der mRNA in die Aminosäuresequenz der Proteine übersetzt, zählen zu den größten Rätseln der Biologie. Die ersten Organismen, die vor etwa 3,8 Milliarden Jahren auf der Erde auftraten, nutzten einen ursprünglichen genetischen Code, der vermutlich ausschließlich abiotisch verfügbare Aminosäuren terrestrischer oder extraterrestrischer Herkunft umfasste. Neue Aminosäuren wurden sukzessive biosynthetisiert und selektiv in den Code aufgenommen, welcher in der modernen Form aus bis zu 22 Aminosäuren besteht. Die Ursachen für die Selektion und die Chronologie ihrer Aufnahme sind bis heute unbekannt und sollten im Rahmen der vorliegenden Arbeit erforscht werden. Auf Grundlage quanten-chemischer Berechnungen konnte in dieser Arbeit zunächst ein Zusammenhang zwischen der HOMO-LUMO-Energiedifferenz (H-L-Distanz), die ein inverses quanten-chemisches Korrelat für allgemeine chemische Reaktivität darstellt, und der chronologischen Aufnahme der Aminosäuren in den genetischen Code aufgezeigt werden. Demnach sind ursprüngliche Aminosäuren durch große H-L-Distanzen und neue Aminosäuren durch kleine H-L-Distanzen gekennzeichnet. Bei einer Analyse des Metabolismus von Tyrosin und Tryptophan, bei denen es sich um die beiden jüngsten Standard-Aminosäuren handelt, wurde ihre Bedeutung als Vorläufer von Strukturen ersichtlich, die sich durch eine hohe Redox-Aktivität auszeichnen und deren Synthese gleichzeitig molekularen Sauerstoff erfordert. Aus diesem Grund wurden die Redox-Aktivitäten der 20 Standard-Aminosäuren gegenüber Peroxylradikalen und weiteren Radikalen getestet. Die Untersuchungen ergaben eine Korrelation zwischen evolutionärem Auftreten und chemischer Reaktivität der jeweiligen Aminosäure, die sich insbesondere in der effizienten Reaktion zwischen Tryptophan bzw. Tyrosin und Peroxylradikalen widerspiegelte. Dies indizierte eine potentielle Bedeutung reaktiver Sauerstoffspezies (ROS) bei der Konstituierung des genetischen Codes. Signifikante Mengen an ROS wurden erst zu Beginn der Oxygenierung der Geobiosphäre, die als Great Oxidation Event (GOE) bezeichnet wird und vor circa 2,3 Milliarden Jahren begann, gebildet und müssen zur oxidativen Schädigung vulnerabler, zellulärer Strukturen geführt haben. Aus diesem Grund wurde das antioxidative Potential von Aminosäuren beim Prozess der Lipidperoxidation untersucht. Es konnte gezeigt werden, dass lipophile Derivate von Tryptophan und Tyrosin befähigt sind, die Peroxidation von Rattenhirnmembranen zu verhindern und humane Fibroblasten vor oxidativem Zelltod zu schützen. Daraus gründete sich das in dieser Arbeit aufgestellte Postulat eines Selektionsvorteils primordialer Organismen während des GOEs, die Tryptophan und Tyrosin als redox-aktive Aminosäuren in Membranproteine einbauen konnten und somit vor Oxidationsprozessen geschützt waren. Demzufolge wurde die biochemische Reaktivität als Selektionsparameter sowie oxidativer Stress als prägender Faktor der Evolution des genetischen Codes identifiziert.
Resumo:
Delivery of therapeutic nucleic acid based drugs is still very demanding and difficult to manage and monitor. For this reason, a precise method for the monitoring of RNAi pathways is necessary. This thesis explores a new approach for sensing of potentially therapeutic nucleic acids, using the interaction of so called prodyes with intracellular enzymes in a prodrug manner. To realize this concept, some non-fluorescent, fluorescein based asymmetric dyes were synthesized and their spectroscopic characteristics were studied. Azide-alkyne Click chemistry was applied for conjugation purposes, using a new protocol at weak acidic pH to get intact prodye constructs. Both, an electrophoretic mobility shift assay with polyacrylamide gels and in-cuvette experiments showed remarkable OFF-to-ON behavior of these new siRNA constructs under physiological conditions. After salt-free purification, subsequent hybridization to double-stranded ribonucleic acids and nanoformulation to lipoplexes, the prodye conjugated siRNA was examined in cellular uptake studies for First Contact Imaging. The investigated siRNA-prodye conjugates showed strong sensitivity to esterases, being hydrolyzed at the biolabile function and developing a strong fluorescence which was verified in bulk. As an optimization, a new profluorescent molecule system was designed and synthesized, which has a carbonate as biolabile 6’ protecting group and a highly water soluble 3’ clickable linker. This new non-fluorescent but colored prodye showed 12 - 320 times increased fluorescence intensities between OFF- and ON- states, depending to the deprotection method. This is the first reported molecule model of an asymmetric profluorescent fluorescein, having the very favorable 3’ &amp; 6’ functions.
Resumo:
Solid oral dosage form disintegration in the human stomach is a highly complex process dependent on physicochemical properties of the stomach contents as well as on physical variables such as hydrodynamics and mechanical stress. Understanding the role of hydrodynamics and forces in disintegration of oral solid dosage forms can help to improve in vitro disintegration testing and the predictive power of the in vitro test. The aim of this work was to obtain a deep understanding of the influence of changing hydrodynamic conditions on solid oral dosage form performance. Therefore, the hydrodynamic conditions and forces present in the compendial PhEur/USP disintegration test device were characterized using a computational fluid dynamics (CFD) approach. Furthermore, a modified device was developed and the hydrodynamic conditions present were simulated using CFD. This modified device was applied in two case studies comprising immediate release (IR) tablets and gastroretentive drug delivery systems (GRDDS). Due to the description of movement provided in the PhEur, the movement velocity of the basket-rack assembly follows a sinusoidal profile. Therefore, hydrodynamic conditions are changing continually throughout the movement cycle. CFD simulations revealed that the dosage form is exposed to a wide range of fluid velocities and shear forces during the test. The hydrodynamic conditions in the compendial device are highly variable and cannot be controlled. A new, modified disintegration test device based on computerized numerical control (CNC) technique was developed. The modified device can be moved in all three dimensions and radial movement is also possible. Simple and complex moving profiles can be developed and the influence of the hydrodynamic conditions on oral solid dosage form performance can be evaluated. Furthermore, a modified basket was designed that allows two-sided fluid flow. CFD simulations of the hydrodynamics and forces in the modified device revealed significant differences in the fluid flow field and forces when compared to the compendial device. Due to the CNC technique moving velocity and direction are arbitrary and hydrodynamics become controllable. The modified disintegration test device was utilized to examine the influence of moving velocity on disintegration times of IR tablets. Insights into the influence of moving speed, medium viscosity and basket design on disintegration times were obtained. An exponential relationship between moving velocity of the modified basket and disintegration times was established in simulated gastric fluid. The same relationship was found between the disintegration times and the CFD predicted average shear stress on the tablet surface. Furthermore, a GRDDS was developed based on the approach of an in situ polyelectrolyte complex (PEC). Different complexes composed of different grades of chitosan and carrageenan and different ratios of those were investigated for their swelling behavior, mechanical stability, and in vitro drug release. With an optimized formulation the influence of changing hydrodynamic conditions on the swelling behavior and the drug release profile was demonstrated using the modified disintegration test device. Both, swelling behavior and drug release, were largely dependent on the hydrodynamic conditions. Concluding, it has been shown within this thesis that the application of the modified disintegration test device allows for detailed insights into the influence of hydrodynamic conditions on solid oral dosage form disintegration and dissolution. By the application of appropriate test conditions, the predictive power of in vitro disintegration testing can be improved using the modified disintegration test device. Furthermore, CFD has proven a powerful tool to examine the hydrodynamics and forces in the compendial as well as in the modified disintegration test device. rn