51 resultados para Thema
Resumo:
In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.
Resumo:
This thesis reports on the creation and analysis of many-body states of interacting fermionic atoms in optical lattices. The realized system can be described by the Fermi-Hubbard hamiltonian, which is an important model for correlated electrons in modern condensed matter physics. In this way, ultra-cold atoms can be utilized as a quantum simulator to study solid state phenomena. The use of a Feshbach resonance in combination with a blue-detuned optical lattice and a red-detuned dipole trap enables an independent control over all relevant parameters in the many-body hamiltonian. By measuring the in-situ density distribution and doublon fraction it has been possible to identify both metallic and insulating phases in the repulsive Hubbard model, including the experimental observation of the fermionic Mott insulator. In the attractive case, the appearance of strong correlations has been detected via an anomalous expansion of the cloud that is caused by the formation of non-condensed pairs. By monitoring the in-situ density distribution of initially localized atoms during the free expansion in a homogeneous optical lattice, a strong influence of interactions on the out-of-equilibrium dynamics within the Hubbard model has been found. The reported experiments pave the way for future studies on magnetic order and fermionic superfluidity in a clean and well-controlled experimental system.
Resumo:
Zusammenfassung: rnrn Die vorliegende Arbeit mit dem Thema „Polyphenylendendrimere zur Gefahrstoffdetektion“ ist hauptsächlich synthetisch orientiert und behandelt vor allem den Aufbau neuartiger innenfunktionalisierter Polyphenylendendrimer-Systeme durch die systematische Anwendung wiederholter Diels-Alder- bzw. Desilylierungs-Reaktionen. Diskutiert wird dabei die Synthese der dafür notwendigen Verzweigungsbausteine, die daraus hervorgehende Darstellung der verschiedenen Dendrimere sowie deren Charakterisierung. Als Referenz zu den monodispersen dendritischen Systemen werden parallel verschiedene hyperverzweigte Polymere mittels Diels-Alder-Reaktion bzw. Suzuki-Kupplung dargestellt und beide Makromolekül-Systeme im direkten Vergleich besprochen. Erstmals wird die Einbindung funktioneller Elemente, wie z.B. Triazol oder Pyren, synthetisch ermöglicht. Die dendritischen Systeme werden bis zur dritten Generation aufgebaut, im Fall des Ester-funktionalisierten Systems wird auch eine Darstellung der vierten Generation erreicht. Im Anschluss wird das supramolekulare Verhalten der erhaltenen dendritischen, wie auch polymeren Verbindungen mittels zweier unterschiedlicher Meßmethoden (QMB, ITC) gegenüber verschiedenen Lösungsmitteln und Gefahrstoffen untersucht. Dabei kann eine Diskrepanz im Einlagerungsverhalten der verschiedenen makromolekularen Strukturen gegenüber den verwendeten Gast-Molekülen beobachtet werden. Aufgrund der umfassenden systematischen Analyse aller getesteten Verbindungen wird ein tiefer greifendes Verständnis für die während des Einlagerungsprozesses verantwortlichen Wechselwirkungen aufgebaut. Dabei spielt die dreidimensionale Anordnung des dendritischen Gerüsts, resultierend aus der Polarität und dem sterischen Anspruch der eingebundenen funktionellen Gruppen eine entscheidende Rolle. Als Anwendungsbeispiel der dendritischen Strukturen wird die Verwendung eigens beschichteter Schwingquarze zur Detektion von Sprengstoffen, wie z. B. TATP, erläutert und eine daraus resultierende Steigerung der Sensibilität der Detektoren erklärt.rn
Resumo:
Stabile Radikale haben in vielen Bereichen der Chemie, Physik, Biologie und Biomedizin ihren Nutzen unter Beweis gestellt. Gerade im letzten Jahrzehnt erlebte diese Substanzklasse vor allem wegen den Anwendungsmöglichkeiten von Nitroxiden als Red-Ox-Sensoren oder magnetischen Materialen ein erneutes Interesse. Das erste Kapitel beschäftigt sich mit der grundlegenden Theorie zur Entwicklung magnetischer Materialien. Des Weiteren sollen anhand einiger Beispiele Radikale im Komplex mit paragmagnetischen Metallen, Biradikale und Polyradikale beschrieben werden. rnrnIm zweiten Kapitel soll auf die Synthese von Hybrid Fluorophore-Nitrononyl-Nitroxid und Iminonitroxidradiale, sowie ihre Charakterisierung über IR, CV, EPR und Röntgenstrukturanalyse eingegangen werden. Mittels UV/Vis-Spektroskopie soll hierbei eine mögliche Anwendung als Red-Ox-Sensoren festgestellt werden. Hierbei werden über anschließende PL Untersuchungen eben diese Sensoreigenschaften der dargestellten Radikale bestätigt werden. Vielmehr noch soll die Möglichkeit von Pyren-Pyrazol-Nitronyl-Nitroxid als NO-Nachweis erläutert werden.rnrnFortschritte sowohl im Design als auch in der Analyse von magnetischen Materialen auf der Basis von Nitroxiden ist Thema des dritten Kapitels. Über ein klassisches Ullmann-Protokoll wurden verschiedene Nitronyl-Nitroxid und Iminonitroxid Biradiale mit unterschiedlichen π-Brücken zwischen den Radikalzentren synthetisiert. Magnetische Messungen belegen einen relativ starken antiferromagnetischen intramolekularen Austausch für den Großteil der untersuchten Biradikale. Hierbei zeigte sich jedoch eine außergewöhnliche hohe Austausch-Kupplung für 3,3‘-Diazatolandiradikale, die nur über die Existenz von starken intermolekularen Wechselwirkungen beschrieben werden kann. Durch Kombination der Röntgenstrukturanalyse mit DFT Berechnungen konnte im Fall des Tolan verbrückten Diradikals 87c die Intra-Dimer-Kupplung auf Jintra = -8,6 K bestimmt werden. Ein direkter Beweis für eine intermolekulare Anlagerung von Jinter ~- 2K konnte über eine Tieftemperatur AC-Messung von 87c erhalten werden. Bezüglich der magnetischen Messung ist das Nitronyl Biradikal 87c ein vielversprechender Kandidat für einen rein organischen eindimensionalen Quantenmagnet.rnrnAbsicht dieser Untersuchungen ist es zu zeigen, dass über die Kombination verschiedener struktureller Elemente die Sensitivität von Nitroxid basierten Sensoren und die intramolekulare Austauschwechselwirkung in π-konjugierten Spinsystemen so eingestellt werden kann, dass es möglich ist Moleküle mit gezielten Sensor- oder Magneteigenschaften zu entwickeln. rn
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
Zusammenfassung:rnDie vorliegende Arbeit beschreibt das Design und die Synthese neuartiger Porphyrinoide anhand der Modifikation und der π-Systemausdehnung an der Peripherie des Porphyrin-Gerüsts. Die Darstellung künstlicher Porphyrine ist von Interesse, da neue physiko-chemischen Eigenschaften erhalten und untersucht werden können. Die in dieser Arbeit vorgestellten Porphyrinoide wurden mit Hilfe von modernen Synthesemethoden wie den metallkatalysierten Kreuzkupplungen und somit durch Aryl-Aryl Verknüpfungen aufgebaut.rnDer erste Teil dieser Arbeit befasst sich mit der Modifikation des Porphyrin-Gerüsts. Porphyrine bestehen aus jeweils zwei Pyrrol- und Pyrrolenin-Einheiten, welche systematisch ausgetauscht wurden. Die Pyrrol-Einheiten wurden durch Carbazol ersetzt, das sich formal vom Pyrrol durch Anfügen von zwei Benzogruppen ableitet und deshalb besonders gut geeignet ist. Die Pyrrolenin-Einheiten wurden aus folgenden Gründen durch andere Heterozyklen wie Pyridin, Pyrrol oder Triazol ersetzt: rn* Nachbildung des stabilen Porphyrin trans-NH-Tautomers (Carbazol und Pyridin)rn* Nachbildung von (NH)4-Liganden wie Calix[4]pyrrol (Carbazol und Pyrrol)rn* Vereinigung von N-H und C-H Wasserstoffbrücken-Donor-Einheiten in einem Makrozyklus (Carbazol und Triazol)rnDie Synthese eines drei-Zentren Porphyrinoids mit ausgedehntem π-System wird im zweiten Teil der vorliegenden Arbeit beschrieben. Dieses Thema basiert auf der aktuellen Entwicklung von nicht-Edelmetall basierten Katalysatoren für die Reduktion von Sauerstoff. Hier werden derzeit N4 makrozyklische Metallkomplexe, die mehrere katalytisch aktive Stellen aufweisen, untersucht. In diesem Zusammenhang, hat die Gruppe von Prof. Müllen einen neuartigen drei-Zentren-Komplex entwickelt. Ausgehend von diesen Erkenntnissen, dient diese Arbeit zur Verbesserung der katalytischen Aktivität des drei-Zentren-Komplex durch die Variation von verschieden Substituenten. Hierbei wurden zwei wesentliche Konzepte verfolgt:rn* Vernetzung durch die Bildung von Netzwerken oder durch Pyrolyse in der Mesophasern* Verbesserung des Katalysator-Trägermaterial-KontaktsrnNeben den Synthesen wurden die Eigenschaften und möglichen Anwendungen dieser neuartigen Materialen untersucht, wie z.B. als Liganden für Übergangsmetalle, als Anionenrezeptoren oder als Elektrokatalysatoren für die Reduktion von Sauerstoff. rn
Resumo:
Management Control System (MCS) research is undergoing turbulent times. For a long time related to cybernetic instruments of management accounting only, MCS are increasingly seen as complex systems comprising not only formal accounting-driven instruments, but also informal mechanisms of control based on organizational culture. But not only have the means of MCS changed; researchers increasingly ap-ply MCS to organizational goals other than strategy implementation.rnrnTaking the question of "How do I design a well-performing MCS?" as a starting point, this dissertation aims at providing a comprehensive and integrated overview of the "current-state" of MCS research. Opting for a definition of MCS, broad in terms of means (all formal as well as informal MCS instruments), but focused in terms of objectives (behavioral control only), the dissertation contributes to MCS theory by, a) developing an integrated (contingency) model of MCS, describing its contingencies, as well as its subcomponents, b) refining the equifinality model of Gresov/Drazin (1997), c) synthesizing research findings from contingency and configuration research concerning MCS, taking into account case studies on research topics such as ambi-dexterity, equifinality and time as a contingency.
Resumo:
Lo scopo del presente lavoro è gettare la massima luce possibile (in base ai documenti disponibili), sia dal punto di vista teorico che storico, su due questioni che la ricerca schopenhaueriana ha già da tempo considerato come decisive: la frequenza, da parte del giovanissimo Schopenhauer, delle lezioni di Fichte e la genesi, lo sviluppo e infine l’abbandono del filosofema della «coscienza migliore». Il lavoro è perciò diviso in due sezioni: «Analisi degli appunti» e «La coscienza migliore». Schopenhauer frequentò a Berlino, nel semestre invernale 1811-12, quattro lezioni di Fichte «Sullo studio della filosofia», e poi i corsi «Sui fatti della coscienza» e «Sulla dottrina della scienza». Nei suoi appunti concernenti queste lezioni, Schopenhauer ha registrato non soltanto l’esposizione di Fichte, ma anche le sue osservazioni e obbiezioni. L’analisi di questi appunti, condotta nella prima parte, consente perciò di documentare dettagliatamente il primo incontro del giovane Schopenhauer con la filosofia di Fichte e di indicare i punti specifici dell’esposizione di quest’ultimo che possono aver costituito un riferimento teorico significativo per il successivo sviluppo della filosofia schopenhaueriana. La seconda parte del lavoro è dedicata all’analisi dei Manoscritti giovanili di Schopenhauer, redatti dal 1804 al 1814, e soprattutto al filosofema della «coscienza migliore». Il tema della prima parte e il tema della seconda parte del lavoro sono in stretta relazione, in quanto, come è dimostrato nel corso dell’indagine, l’ascolto dei corsi di Fichte mosse Schopenhauer a elaborare i principi fondamentali del filosofema in questione. Quest’ultimo costituisce il primo tentativo di sistema di Schopenhauer. Attraverso l’analisi di tale filosofema si muove perciò un’indagine sistematica sui primissimi esperimenti teorici del giovane Schopenhauer, mettendo in evidenza il percorso e gli influssi attraverso i quali il filosofo tedesco è gradualmente giunto alle sue posizioni definitive concernenti il sistema della volontà di vivere. Nel lavoro si dimostra che la preferenza di Schopenhauer per il sistema della volontà di vivere rispetto al tentativo di sistema della coscienza migliore è necessitato da un’esigenza di coerenza verso quelle che Schopenhauer stesso considera le istanze irrinunciabili del criticismo kantiano. Al tempo stesso, si mostra come il filosofema della «coscienza migliore» abbia costituto, nelle riflessioni del giovane Schopenhauer, un importantissimo “esperimento teorico”, il cui fallimento fornì l’impulso fondamentale per l’elaborazione del sistema della volontà di vivere.
Resumo:
Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz
Resumo:
Als charakteristische Besonderheit in der koreanischen Geschichte besitzt der Korea-Krieg eine wichtige Position, so dass er bisher die gesamte Landesstruktur und -geschichte stark beeinflusst hat. Das gilt auch für die koreanische Filmgeschichte und nach dem Korea-Krieg im Jahr 1950 wurde in den Filmen das Thema „Landesteilung“ häufig aufgegriffen und bis heute oft behandelt.rnIn dieser Untersuchung werden solche Filme als Konflikt-Filme bezeichnet, die die Spaltung des Landes und die Beziehungen zu Nordkorea thematisieren, und insgesamt 60 Beispielfilme aus verschiedenen Filmgenres seit dem Ende des Korea-Kriegs bis zur Gegenwart analysiert und unter dem Aspekt beleuchtet, wie diese politischen und gesellschaftlichen Themen über das Verhältnis zwischen Süd- und Nordkorea repräsentiert werden. Mit Hilfe von Beispielfilmen wird versucht, herauszufinden, wie stark und unterschiedlich der Bruderkrieg und die davon abgeleitete Teilung des Landes in südkoreanischen Filmen im Wandel der Geschichte widergespiegelt werden. rnDiese Arbeit setzt sich zuerst mit Kracauers Spiegeltheorie, einer filmsoziologischen Theorie, und der Genretheorie als wichtigen theoretischen Überlegungen auseinander, um zu verdeutlichen, in welchem Bezug Konfliktfilme über die südkoreanische Gesellschaft angesehen werden und welche Rolle sie als Spiegel der Gesellschaft spielen, um gesellschaftliche Stimmungen, Bewusstseinsformen und Wünsche zu verdeutlichen. Dabei werden die kulturellen und gesellschaftlichen sowie filmwirtschaftlichen Aspekte berücksichtigt. rnDie vorliegende Arbeit bietet einen umfangreichen Überblick über den Konfliktfilm im südkoreanischen Kino seit dem Korea-Krieg. Die koreanischen Konflikt-Filme als regional-spezifische Filmkategorie stehen im engen Zusammenhang mit dieser politischen Situation und die Darstellung sowie Thematisierung Nordkoreas werden jeweils durch die verschiedenen Generationen der Filmemacher unterschiedlich präsentiert. Im südkoreanischen Diskurs bilden sie ein eigenes Genre, das alle klassischen und gemischten Filmgenres integriert; im Wandel der Geschichte haben sie sich dabei stetig weiterentwickelt, in engem Zusammenhang mit der Politik der verschiedenen Präsidenten Südkoreas gegenüber Nordkorea. rn
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Zentrales Thema der Arbeit war die Aufklärung von Verwandtschaftsverhältnissen im „Tree of Life“ der vielzelligen Tiere (Metazoa) unter Einsatz großer DNA-Sequenzdatensätze und phylogenomischer Methoden. Zur Untersuchung der internen Phylogenie der Syndermata (= meist freilebende Rädertiere („Rotifera“) + endoparasitische Kratzwürmer (Acanthocephala)) sowie ihrer Position im Metazoen-Stammbaum wurden insgesamt sieben neue mitochondriale (mt) Genome sowie neue Transkriptom-Sequenzdaten von sieben verschiedenen Syndermata-Spezies generiert und/oder analysiert. Die Stammbaumrekonstruktionen auf Grundlage dieser sowie orthologer Sequenzen anderer Spezies in Form von phylogenomischen Datensätzen mit bis zu 82.000 Aminosäurepositionen ergaben folgende Aussagen zur Evolution: (i) Innerhalb der Acanthocephala bilden monophyletische Palaeacanthocephala das Schwestertaxon zu den Eoacanthocephala. Die Archiacanthocephala sind Schwestertaxon zu allen vorgenannten. (ii) Innerhalb der Syndermata bilden die epizoisch lebenden Seisonidea das Schwestertaxon zu den endoparasitischen Acanthocephala (= Pararotatoria), die Bdelloidea sind das Schwestertaxon zu den Pararotatoria (= Hemirotifera) und die Monogononta das Schwestertaxon zu den Hemirotifera. Die klassischen Eurotatoria (= Bdelloidea + Monogononta) sind demnach paraphyletisch. (iii) Innerhalb der Metazoa bilden die Syndermata gemeinsam mit den Gnathostomulida die Gnathifera. Diese sind die Schwestergruppe zu allen anderen Spiralia-Taxa, welche sich in Rouphozoa (= Platyhelminthes + Gastrotricha) sowie die Lophotrochozoa aufspalten. Die Platyzoa (= Gnathifera + Platyhelminthes + Gastrotricha) sind demnach paraphyletisch. Diese phylogenetischen Hypothesen wurden im Hinblick auf ihre Implikationen für die Evolution morphologischer und ökologischer Merkmale interpretiert. Demnach sind während der Evolution dieser Tiergruppen mehrfach sekundäre Verlustereignisse von komplexen morphologischen Merkmalen aufgetreten (laterale sensorische Organe innerhalb der Acanthocephala und das Räderorgan (Corona) innerhalb der Syndermata), was die Verwendung dieser Merkmale im Sinne einer klassisch-morphologischen Phylogenetik kritisch erscheinen lässt. Der Endoparasitismus der Acanthocephala hat sich wahrscheinlich über ein epizoisches Zwischenstadium, wie man es heute noch bei den Seisonidea findet, entwickelt. Der letzte gemeinsame Vorfahre der Spiralia war vermutlich klein und unsegmentiert und besaß keine echte Leibeshöhle (Coelom). Demnach hätten sich Segmentierung und Coelome innerhalb der Metazoa mehrfach unabhängig voneinander (konvergent) entwickelt. Die Arbeit beinhaltete folgende weitere, zum Teil methodische Aspekte: (i) die Analyse der Architektur der mt Genome der Monogononta bestätigte die aberrante Organisation in zwei Subgenomen für die Brachionidae. (ii) Eine Prüfung der Tauglichkeit ribosomaler Proteine für molekular-phylogenetische Arbeiten ergab das Vorhandensein widersprüchlicher phylogenetischer Signale in diesen speziellen Proteinsequenzen. (iii) Es konnte nachgewiesen werden, dass systematische Fehler wie „long-branch attraction“ bei der Positionierung der Syndermata im Stammbaum der Metazoa eine große Rolle spielen und adressiert werden müssen.
Resumo:
In condensed matter systems, the interfacial tension plays a central role for a multitude of phenomena. It is the driving force for nucleation processes, determines the shape and structure of crystalline structures and is important for industrial applications. Despite its importance, the interfacial tension is hard to determine in experiments and also in computer simulations. While for liquid-vapor interfacial tensions there exist sophisticated simulation methods to compute the interfacial tension, current methods for solid-liquid interfaces produce unsatisfactory results.rnrnAs a first approach to this topic, the influence of the interfacial tension on nuclei is studied within the three-dimensional Ising model. This model is well suited because despite its simplicity, one can learn much about nucleation of crystalline nuclei. Below the so-called roughening temperature, nuclei in the Ising model are not spherical anymore but become cubic because of the anisotropy of the interfacial tension. This is similar to crystalline nuclei, which are in general not spherical but more like a convex polyhedron with flat facets on the surface. In this context, the problem of distinguishing between the two bulk phases in the vicinity of the diffuse droplet surface is addressed. A new definition is found which correctly determines the volume of a droplet in a given configuration if compared to the volume predicted by simple macroscopic assumptions.rnrnTo compute the interfacial tension of solid-liquid interfaces, a new Monte Carlo method called ensemble switch method'' is presented which allows to compute the interfacial tension of liquid-vapor interfaces as well as solid-liquid interfaces with great accuracy. In the past, the dependence of the interfacial tension on the finite size and shape of the simulation box has often been neglected although there is a nontrivial dependence on the box dimensions. As a consequence, one needs to systematically increase the box size and extrapolate to infinite volume in order to accurately predict the interfacial tension. Therefore, a thorough finite-size scaling analysis is established in this thesis. Logarithmic corrections to the finite-size scaling are motivated and identified, which are of leading order and therefore must not be neglected. The astounding feature of these logarithmic corrections is that they do not depend at all on the model under consideration. Using the ensemble switch method, the validity of a finite-size scaling ansatz containing the aforementioned logarithmic corrections is carefully tested and confirmed. Combining the finite-size scaling theory with the ensemble switch method, the interfacial tension of several model systems, ranging from the Ising model to colloidal systems, is computed with great accuracy.
Resumo:
This study aims at a comprehensive understanding of the effects of aerosol-cloud interactions and their effects on cloud properties and climate using the chemistry-climate model EMAC. In this study, CCN activation is regarded as the dominant driver in aerosol-cloud feedback loops in warm clouds. The CCN activation is calculated prognostically using two different cloud droplet nucleation parameterizations, the STN and HYB CDN schemes. Both CDN schemes account for size and chemistry effects on the droplet formation based on the same aerosol properties. The calculation of the solute effect (hygroscopicity) is the main difference between the CDN schemes. The kappa-method is for the first time incorporated into Abdul-Razzak and Ghan activation scheme (ARG) to calculate hygroscopicity and critical supersaturation of aerosols (HYB), and the performance of the modied scheme is compared with the osmotic coefficient model (STN), which is the standard in the ARG scheme. Reference simulations (REF) with the prescribed cloud droplet number concentration have also been carried out in order to understand the effects of aerosol-cloud feedbacks. In addition, since the calculated cloud coverage is an important determinant of cloud radiative effects and is influencing the nucleation process two cloud cover parameterizations (i.e., a relative humidity threshold; RH-CLC and a statistical cloud cover scheme; ST-CLC) have been examined together with the CDN schemes, and their effects on the simulated cloud properties and relevant climate parameters have been investigated. The distinct cloud droplet spectra show strong sensitivity to aerosol composition effects on cloud droplet formation in all particle sizes, especially for the Aitken mode. As Aitken particles are the major component of the total aerosol number concentration and CCN, and are most sensitive to aerosol chemical composition effect (solute effect) on droplet formation, the activation of Aitken particles strongly contribute to total cloud droplet formation and thereby providing different cloud droplet spectra. These different spectra influence cloud structure, cloud properties, and climate, and show regionally varying sensitivity to meteorological and geographical condition as well as the spatiotemporal aerosol properties (i.e., particle size, number, and composition). The changes responding to different CDN schemes are more pronounced at lower altitudes than higher altitudes. Among regions, the subarctic regions show the strongest changes, as the lower surface temperature amplifies the effects of the activated aerosols; in contrast, the Sahara desert, where is an extremely dry area, is less influenced by changes in CCN number concentration. The aerosol-cloud coupling effects have been examined by comparing the prognostic CDN simulations (STN, HYB) with the reference simulation (REF). Most pronounced effects are found in the cloud droplet number concentration, cloud water distribution, and cloud radiative effect. The aerosol-cloud coupling generally increases cloud droplet number concentration; this decreases the efficiency of the formation of weak stratiform precipitation, and increases the cloud water loading. These large-scale changes lead to larger cloud cover and longer cloud lifetime, and contribute to high optical thickness and strong cloud cooling effects. This cools the Earth's surface, increases atmospheric stability, and reduces convective activity. These changes corresponding to aerosol-cloud feedbacks are also differently simulated depending on the cloud cover scheme. The ST-CLC scheme is more sensitive to aerosol-cloud coupling, since this scheme uses a tighter linkage of local dynamics and cloud water distributions in cloud formation process than the RH-CLC scheme. For the calculated total cloud cover, the RH-CLC scheme simulates relatively similar pattern to observations than the ST-CLC scheme does, but the overall properties (e.g., total cloud cover, cloud water content) in the RH simulations are overestimated, particularly over ocean. This is mainly originated from the difference in simulated skewness in each scheme: the RH simulations calculate negatively skewed distributions of cloud cover and relevant cloud water, which is similar to that of the observations, while the ST simulations yield positively skewed distributions resulting in lower mean values than the RH-CLC scheme does. The underestimation of total cloud cover over ocean, particularly over the intertropical convergence zone (ITCZ) relates to systematic defficiency of the prognostic calculation of skewness in the current set-ups of the ST-CLC scheme.rnOverall, the current EMAC model set-ups perform better over continents for all combinations of the cloud droplet nucleation and cloud cover schemes. To consider aerosol-cloud feedbacks, the HYB scheme is a better method for predicting cloud and climate parameters for both cloud cover schemes than the STN scheme. The RH-CLC scheme offers a better simulation of total cloud cover and the relevant parameters with the HYB scheme and single-moment microphysics (REF) than the ST-CLC does, but is not very sensitive to aerosol-cloud interactions.
Resumo:
Thema dieser Arbeit ist die Entwicklung und Kombination verschiedener numerischer Methoden, sowie deren Anwendung auf Probleme stark korrelierter Elektronensysteme. Solche Materialien zeigen viele interessante physikalische Eigenschaften, wie z.B. Supraleitung und magnetische Ordnung und spielen eine bedeutende Rolle in technischen Anwendungen. Es werden zwei verschiedene Modelle behandelt: das Hubbard-Modell und das Kondo-Gitter-Modell (KLM). In den letzten Jahrzehnten konnten bereits viele Erkenntnisse durch die numerische Lösung dieser Modelle gewonnen werden. Dennoch bleibt der physikalische Ursprung vieler Effekte verborgen. Grund dafür ist die Beschränkung aktueller Methoden auf bestimmte Parameterbereiche. Eine der stärksten Einschränkungen ist das Fehlen effizienter Algorithmen für tiefe Temperaturen.rnrnBasierend auf dem Blankenbecler-Scalapino-Sugar Quanten-Monte-Carlo (BSS-QMC) Algorithmus präsentieren wir eine numerisch exakte Methode, die das Hubbard-Modell und das KLM effizient bei sehr tiefen Temperaturen löst. Diese Methode wird auf den Mott-Übergang im zweidimensionalen Hubbard-Modell angewendet. Im Gegensatz zu früheren Studien können wir einen Mott-Übergang bei endlichen Temperaturen und endlichen Wechselwirkungen klar ausschließen.rnrnAuf der Basis dieses exakten BSS-QMC Algorithmus, haben wir einen Störstellenlöser für die dynamische Molekularfeld Theorie (DMFT) sowie ihre Cluster Erweiterungen (CDMFT) entwickelt. Die DMFT ist die vorherrschende Theorie stark korrelierter Systeme, bei denen übliche Bandstrukturrechnungen versagen. Eine Hauptlimitation ist dabei die Verfügbarkeit effizienter Störstellenlöser für das intrinsische Quantenproblem. Der in dieser Arbeit entwickelte Algorithmus hat das gleiche überlegene Skalierungsverhalten mit der inversen Temperatur wie BSS-QMC. Wir untersuchen den Mott-Übergang im Rahmen der DMFT und analysieren den Einfluss von systematischen Fehlern auf diesen Übergang.rnrnEin weiteres prominentes Thema ist die Vernachlässigung von nicht-lokalen Wechselwirkungen in der DMFT. Hierzu kombinieren wir direkte BSS-QMC Gitterrechnungen mit CDMFT für das halb gefüllte zweidimensionale anisotrope Hubbard Modell, das dotierte Hubbard Modell und das KLM. Die Ergebnisse für die verschiedenen Modelle unterscheiden sich stark: während nicht-lokale Korrelationen eine wichtige Rolle im zweidimensionalen (anisotropen) Modell spielen, ist in der paramagnetischen Phase die Impulsabhängigkeit der Selbstenergie für stark dotierte Systeme und für das KLM deutlich schwächer. Eine bemerkenswerte Erkenntnis ist, dass die Selbstenergie sich durch die nicht-wechselwirkende Dispersion parametrisieren lässt. Die spezielle Struktur der Selbstenergie im Impulsraum kann sehr nützlich für die Klassifizierung von elektronischen Korrelationseffekten sein und öffnet den Weg für die Entwicklung neuer Schemata über die Grenzen der DMFT hinaus.