450 resultados para Thema
Resumo:
Ziel dieser Dissertation ist die experimentelle Charakterisierung und quantitative Beschreibung der Hybridisierung von komplementären Nukleinsäuresträngen mit oberflächengebundenen Fängermolekülen für die Entwicklung von integrierten Biosensoren. Im Gegensatz zu lösungsbasierten Verfahren ist mit Microarray Substraten die Untersuchung vieler Nukleinsäurekombinationen parallel möglich. Als biologisch relevantes Evaluierungssystem wurde das in Eukaryoten universell exprimierte Actin Gen aus unterschiedlichen Pflanzenspezies verwendet. Dieses Testsystem ermöglicht es, nahe verwandte Pflanzenarten auf Grund von geringen Unterschieden in der Gen-Sequenz (SNPs) zu charakterisieren. Aufbauend auf dieses gut studierte Modell eines House-Keeping Genes wurde ein umfassendes Microarray System, bestehend aus kurzen und langen Oligonukleotiden (mit eingebauten LNA-Molekülen), cDNAs sowie DNA und RNA Targets realisiert. Damit konnte ein für online Messung optimiertes Testsystem mit hohen Signalstärken entwickelt werden. Basierend auf den Ergebnissen wurde der gesamte Signalpfad von Nukleinsärekonzentration bis zum digitalen Wert modelliert. Die aus der Entwicklung und den Experimenten gewonnen Erkenntnisse über die Kinetik und Thermodynamik von Hybridisierung sind in drei Publikationen zusammengefasst die das Rückgrat dieser Dissertation bilden. Die erste Publikation beschreibt die Verbesserung der Reproduzierbarkeit und Spezifizität von Microarray Ergebnissen durch online Messung von Kinetik und Thermodynamik gegenüber endpunktbasierten Messungen mit Standard Microarrays. Für die Auswertung der riesigen Datenmengen wurden zwei Algorithmen entwickelt, eine reaktionskinetische Modellierung der Isothermen und ein auf der Fermi-Dirac Statistik beruhende Beschreibung des Schmelzüberganges. Diese Algorithmen werden in der zweiten Publikation beschrieben. Durch die Realisierung von gleichen Sequenzen in den chemisch unterschiedlichen Nukleinsäuren (DNA, RNA und LNA) ist es möglich, definierte Unterschiede in der Konformation des Riboserings und der C5-Methylgruppe der Pyrimidine zu untersuchen. Die kompetitive Wechselwirkung dieser unterschiedlichen Nukleinsäuren gleicher Sequenz und die Auswirkungen auf Kinetik und Thermodynamik ist das Thema der dritten Publikation. Neben der molekularbiologischen und technologischen Entwicklung im Bereich der Sensorik von Hybridisierungsreaktionen oberflächengebundener Nukleinsäuremolekülen, der automatisierten Auswertung und Modellierung der anfallenden Datenmengen und der damit verbundenen besseren quantitativen Beschreibung von Kinetik und Thermodynamik dieser Reaktionen tragen die Ergebnisse zum besseren Verständnis der physikalisch-chemischen Struktur des elementarsten biologischen Moleküls und seiner nach wie vor nicht vollständig verstandenen Spezifizität bei.
Resumo:
In this thesis, a systematic analysis of the bar B to X_sgamma photon spectrum in the endpoint region is presented. The endpoint region refers to a kinematic configuration of the final state, in which the photon has a large energy m_b-2E_gamma = O(Lambda_QCD), while the jet has a large energy but small invariant mass. Using methods of soft-collinear effective theory and heavy-quark effective theory, it is shown that the spectrum can be factorized into hard, jet, and soft functions, each encoding the dynamics at a certain scale. The relevant scales in the endpoint region are the heavy-quark mass m_b, the hadronic energy scale Lambda_QCD and an intermediate scale sqrt{Lambda_QCD m_b} associated with the invariant mass of the jet. It is found that the factorization formula contains two different types of contributions, distinguishable by the space-time structure of the underlying diagrams. On the one hand, there are the direct photon contributions which correspond to diagrams with the photon emitted directly from the weak vertex. The resolved photon contributions on the other hand arise at O(1/m_b) whenever the photon couples to light partons. In this work, these contributions will be explicitly defined in terms of convolutions of jet functions with subleading shape functions. While the direct photon contributions can be expressed in terms of a local operator product expansion, when the photon spectrum is integrated over a range larger than the endpoint region, the resolved photon contributions always remain non-local. Thus, they are responsible for a non-perturbative uncertainty on the partonic predictions. In this thesis, the effect of these uncertainties is estimated in two different phenomenological contexts. First, the hadronic uncertainties in the bar B to X_sgamma branching fraction, defined with a cut E_gamma > 1.6 GeV are discussed. It is found, that the resolved photon contributions give rise to an irreducible theory uncertainty of approximately 5 %. As a second application of the formalism, the influence of the long-distance effects on the direct CP asymmetry will be considered. It will be shown that these effects are dominant in the Standard Model and that a range of -0.6 < A_CP^SM < 2.8 % is possible for the asymmetry, if resolved photon contributions are taken into account.
Resumo:
This thesis reports on the creation and analysis of many-body states of interacting fermionic atoms in optical lattices. The realized system can be described by the Fermi-Hubbard hamiltonian, which is an important model for correlated electrons in modern condensed matter physics. In this way, ultra-cold atoms can be utilized as a quantum simulator to study solid state phenomena. The use of a Feshbach resonance in combination with a blue-detuned optical lattice and a red-detuned dipole trap enables an independent control over all relevant parameters in the many-body hamiltonian. By measuring the in-situ density distribution and doublon fraction it has been possible to identify both metallic and insulating phases in the repulsive Hubbard model, including the experimental observation of the fermionic Mott insulator. In the attractive case, the appearance of strong correlations has been detected via an anomalous expansion of the cloud that is caused by the formation of non-condensed pairs. By monitoring the in-situ density distribution of initially localized atoms during the free expansion in a homogeneous optical lattice, a strong influence of interactions on the out-of-equilibrium dynamics within the Hubbard model has been found. The reported experiments pave the way for future studies on magnetic order and fermionic superfluidity in a clean and well-controlled experimental system.
Resumo:
Zusammenfassung: rnrn Die vorliegende Arbeit mit dem Thema „Polyphenylendendrimere zur Gefahrstoffdetektion“ ist hauptsächlich synthetisch orientiert und behandelt vor allem den Aufbau neuartiger innenfunktionalisierter Polyphenylendendrimer-Systeme durch die systematische Anwendung wiederholter Diels-Alder- bzw. Desilylierungs-Reaktionen. Diskutiert wird dabei die Synthese der dafür notwendigen Verzweigungsbausteine, die daraus hervorgehende Darstellung der verschiedenen Dendrimere sowie deren Charakterisierung. Als Referenz zu den monodispersen dendritischen Systemen werden parallel verschiedene hyperverzweigte Polymere mittels Diels-Alder-Reaktion bzw. Suzuki-Kupplung dargestellt und beide Makromolekül-Systeme im direkten Vergleich besprochen. Erstmals wird die Einbindung funktioneller Elemente, wie z.B. Triazol oder Pyren, synthetisch ermöglicht. Die dendritischen Systeme werden bis zur dritten Generation aufgebaut, im Fall des Ester-funktionalisierten Systems wird auch eine Darstellung der vierten Generation erreicht. Im Anschluss wird das supramolekulare Verhalten der erhaltenen dendritischen, wie auch polymeren Verbindungen mittels zweier unterschiedlicher Meßmethoden (QMB, ITC) gegenüber verschiedenen Lösungsmitteln und Gefahrstoffen untersucht. Dabei kann eine Diskrepanz im Einlagerungsverhalten der verschiedenen makromolekularen Strukturen gegenüber den verwendeten Gast-Molekülen beobachtet werden. Aufgrund der umfassenden systematischen Analyse aller getesteten Verbindungen wird ein tiefer greifendes Verständnis für die während des Einlagerungsprozesses verantwortlichen Wechselwirkungen aufgebaut. Dabei spielt die dreidimensionale Anordnung des dendritischen Gerüsts, resultierend aus der Polarität und dem sterischen Anspruch der eingebundenen funktionellen Gruppen eine entscheidende Rolle. Als Anwendungsbeispiel der dendritischen Strukturen wird die Verwendung eigens beschichteter Schwingquarze zur Detektion von Sprengstoffen, wie z. B. TATP, erläutert und eine daraus resultierende Steigerung der Sensibilität der Detektoren erklärt.rn
Resumo:
Stabile Radikale haben in vielen Bereichen der Chemie, Physik, Biologie und Biomedizin ihren Nutzen unter Beweis gestellt. Gerade im letzten Jahrzehnt erlebte diese Substanzklasse vor allem wegen den Anwendungsmöglichkeiten von Nitroxiden als Red-Ox-Sensoren oder magnetischen Materialen ein erneutes Interesse. Das erste Kapitel beschäftigt sich mit der grundlegenden Theorie zur Entwicklung magnetischer Materialien. Des Weiteren sollen anhand einiger Beispiele Radikale im Komplex mit paragmagnetischen Metallen, Biradikale und Polyradikale beschrieben werden. rnrnIm zweiten Kapitel soll auf die Synthese von Hybrid Fluorophore-Nitrononyl-Nitroxid und Iminonitroxidradiale, sowie ihre Charakterisierung über IR, CV, EPR und Röntgenstrukturanalyse eingegangen werden. Mittels UV/Vis-Spektroskopie soll hierbei eine mögliche Anwendung als Red-Ox-Sensoren festgestellt werden. Hierbei werden über anschließende PL Untersuchungen eben diese Sensoreigenschaften der dargestellten Radikale bestätigt werden. Vielmehr noch soll die Möglichkeit von Pyren-Pyrazol-Nitronyl-Nitroxid als NO-Nachweis erläutert werden.rnrnFortschritte sowohl im Design als auch in der Analyse von magnetischen Materialen auf der Basis von Nitroxiden ist Thema des dritten Kapitels. Über ein klassisches Ullmann-Protokoll wurden verschiedene Nitronyl-Nitroxid und Iminonitroxid Biradiale mit unterschiedlichen π-Brücken zwischen den Radikalzentren synthetisiert. Magnetische Messungen belegen einen relativ starken antiferromagnetischen intramolekularen Austausch für den Großteil der untersuchten Biradikale. Hierbei zeigte sich jedoch eine außergewöhnliche hohe Austausch-Kupplung für 3,3‘-Diazatolandiradikale, die nur über die Existenz von starken intermolekularen Wechselwirkungen beschrieben werden kann. Durch Kombination der Röntgenstrukturanalyse mit DFT Berechnungen konnte im Fall des Tolan verbrückten Diradikals 87c die Intra-Dimer-Kupplung auf Jintra = -8,6 K bestimmt werden. Ein direkter Beweis für eine intermolekulare Anlagerung von Jinter ~- 2K konnte über eine Tieftemperatur AC-Messung von 87c erhalten werden. Bezüglich der magnetischen Messung ist das Nitronyl Biradikal 87c ein vielversprechender Kandidat für einen rein organischen eindimensionalen Quantenmagnet.rnrnAbsicht dieser Untersuchungen ist es zu zeigen, dass über die Kombination verschiedener struktureller Elemente die Sensitivität von Nitroxid basierten Sensoren und die intramolekulare Austauschwechselwirkung in π-konjugierten Spinsystemen so eingestellt werden kann, dass es möglich ist Moleküle mit gezielten Sensor- oder Magneteigenschaften zu entwickeln. rn
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
Zusammenfassung:rnDie vorliegende Arbeit beschreibt das Design und die Synthese neuartiger Porphyrinoide anhand der Modifikation und der π-Systemausdehnung an der Peripherie des Porphyrin-Gerüsts. Die Darstellung künstlicher Porphyrine ist von Interesse, da neue physiko-chemischen Eigenschaften erhalten und untersucht werden können. Die in dieser Arbeit vorgestellten Porphyrinoide wurden mit Hilfe von modernen Synthesemethoden wie den metallkatalysierten Kreuzkupplungen und somit durch Aryl-Aryl Verknüpfungen aufgebaut.rnDer erste Teil dieser Arbeit befasst sich mit der Modifikation des Porphyrin-Gerüsts. Porphyrine bestehen aus jeweils zwei Pyrrol- und Pyrrolenin-Einheiten, welche systematisch ausgetauscht wurden. Die Pyrrol-Einheiten wurden durch Carbazol ersetzt, das sich formal vom Pyrrol durch Anfügen von zwei Benzogruppen ableitet und deshalb besonders gut geeignet ist. Die Pyrrolenin-Einheiten wurden aus folgenden Gründen durch andere Heterozyklen wie Pyridin, Pyrrol oder Triazol ersetzt: rn* Nachbildung des stabilen Porphyrin trans-NH-Tautomers (Carbazol und Pyridin)rn* Nachbildung von (NH)4-Liganden wie Calix[4]pyrrol (Carbazol und Pyrrol)rn* Vereinigung von N-H und C-H Wasserstoffbrücken-Donor-Einheiten in einem Makrozyklus (Carbazol und Triazol)rnDie Synthese eines drei-Zentren Porphyrinoids mit ausgedehntem π-System wird im zweiten Teil der vorliegenden Arbeit beschrieben. Dieses Thema basiert auf der aktuellen Entwicklung von nicht-Edelmetall basierten Katalysatoren für die Reduktion von Sauerstoff. Hier werden derzeit N4 makrozyklische Metallkomplexe, die mehrere katalytisch aktive Stellen aufweisen, untersucht. In diesem Zusammenhang, hat die Gruppe von Prof. Müllen einen neuartigen drei-Zentren-Komplex entwickelt. Ausgehend von diesen Erkenntnissen, dient diese Arbeit zur Verbesserung der katalytischen Aktivität des drei-Zentren-Komplex durch die Variation von verschieden Substituenten. Hierbei wurden zwei wesentliche Konzepte verfolgt:rn* Vernetzung durch die Bildung von Netzwerken oder durch Pyrolyse in der Mesophasern* Verbesserung des Katalysator-Trägermaterial-KontaktsrnNeben den Synthesen wurden die Eigenschaften und möglichen Anwendungen dieser neuartigen Materialen untersucht, wie z.B. als Liganden für Übergangsmetalle, als Anionenrezeptoren oder als Elektrokatalysatoren für die Reduktion von Sauerstoff. rn
Resumo:
In der vorliegenden Masterarbeit geht es um das Thema Selbstreparaturen beim Simultandolmetschen vom Deutschen ins Italienische und konzentriert man vor allem auf das progressive Verhalten der Studierenden im Laufe des Studiums. Um das oben genannte Phänomen zu analysieren, wurden zehn Studierenden im Masterstudiengang Konferenzdolmetschen an der Fakultät SSLMIT in Forlì (heute DIT) der Universität von Bologna ausgewählt. Ihre Leistungen bei den Prüfungen vom Simultandolmetschen vom ersten Jahr, zweites Jahr und Endprüfung, zusammen mit dementsprechenden Originaltexten, wurden gesammelt, transkribiert und analysiert. Der Zweck der vorliegenden Masterarbeit besteht darin, die Ansätze der Studierenden zum Phänomen der Selbstreparaturen zu beobachten, um dann feststellen zu können, ob eine Verbesserung zu verzeichnen ist oder nicht. Die Verbesserung lässt sich durch die folgende drei Parameter messen: Vollendung von abgeschnittenen Wörtern und Korrektur von falsch ausgesprochenen Wörtern; effektive Reparatur von Error-Repair und verbesserte Formulierung von Appropriatness-Repair; Verminderung von carry-over effect. Die Ergebnisse zeigen, dass es im Laufe des Studiums für keine Studierende eine reine Verbesserung für alle drei Parameter zu verzeichnen ist: manchmal gibt es Verbesserungen, manchmal ist die Tendenz unregelmäßig, manchmal gibt es sogar Verschlechterungen. Der Grund dieser Ungleichartigkeit liegt darin, dass das Ergebnis von zu vielen Bedingungen abhängig ist: mehreren Themen und Präsentationsarten, unterschiedlichen Redegeschwindigkeiten und noch die Vorbereitung der Studierenden in jenem präzisen Moment und die Vollständigkeit des Briefings, das von den Professoren den Studierenden vor der Prüfungen gegeben wird. Auch der Versuch, die Leistungen von verschiedenen Studierenden in Bezug auf den gleichen Text zu vergleichen, war nicht in der Lage, einen eindeutigen Ansatz zu definieren. Das bedeutet, dass jeder Studierende ein eigenes Profil erarbeitet, das im Laufe des Studiums noch nicht so weit entwickelt ist, um ähnliche Leistungen beim Dolmetschen jeder Textart erreichen zu können.
Resumo:
Management Control System (MCS) research is undergoing turbulent times. For a long time related to cybernetic instruments of management accounting only, MCS are increasingly seen as complex systems comprising not only formal accounting-driven instruments, but also informal mechanisms of control based on organizational culture. But not only have the means of MCS changed; researchers increasingly ap-ply MCS to organizational goals other than strategy implementation.rnrnTaking the question of "How do I design a well-performing MCS?" as a starting point, this dissertation aims at providing a comprehensive and integrated overview of the "current-state" of MCS research. Opting for a definition of MCS, broad in terms of means (all formal as well as informal MCS instruments), but focused in terms of objectives (behavioral control only), the dissertation contributes to MCS theory by, a) developing an integrated (contingency) model of MCS, describing its contingencies, as well as its subcomponents, b) refining the equifinality model of Gresov/Drazin (1997), c) synthesizing research findings from contingency and configuration research concerning MCS, taking into account case studies on research topics such as ambi-dexterity, equifinality and time as a contingency.
Resumo:
Lo scopo del presente lavoro è gettare la massima luce possibile (in base ai documenti disponibili), sia dal punto di vista teorico che storico, su due questioni che la ricerca schopenhaueriana ha già da tempo considerato come decisive: la frequenza, da parte del giovanissimo Schopenhauer, delle lezioni di Fichte e la genesi, lo sviluppo e infine l’abbandono del filosofema della «coscienza migliore». Il lavoro è perciò diviso in due sezioni: «Analisi degli appunti» e «La coscienza migliore». Schopenhauer frequentò a Berlino, nel semestre invernale 1811-12, quattro lezioni di Fichte «Sullo studio della filosofia», e poi i corsi «Sui fatti della coscienza» e «Sulla dottrina della scienza». Nei suoi appunti concernenti queste lezioni, Schopenhauer ha registrato non soltanto l’esposizione di Fichte, ma anche le sue osservazioni e obbiezioni. L’analisi di questi appunti, condotta nella prima parte, consente perciò di documentare dettagliatamente il primo incontro del giovane Schopenhauer con la filosofia di Fichte e di indicare i punti specifici dell’esposizione di quest’ultimo che possono aver costituito un riferimento teorico significativo per il successivo sviluppo della filosofia schopenhaueriana. La seconda parte del lavoro è dedicata all’analisi dei Manoscritti giovanili di Schopenhauer, redatti dal 1804 al 1814, e soprattutto al filosofema della «coscienza migliore». Il tema della prima parte e il tema della seconda parte del lavoro sono in stretta relazione, in quanto, come è dimostrato nel corso dell’indagine, l’ascolto dei corsi di Fichte mosse Schopenhauer a elaborare i principi fondamentali del filosofema in questione. Quest’ultimo costituisce il primo tentativo di sistema di Schopenhauer. Attraverso l’analisi di tale filosofema si muove perciò un’indagine sistematica sui primissimi esperimenti teorici del giovane Schopenhauer, mettendo in evidenza il percorso e gli influssi attraverso i quali il filosofo tedesco è gradualmente giunto alle sue posizioni definitive concernenti il sistema della volontà di vivere. Nel lavoro si dimostra che la preferenza di Schopenhauer per il sistema della volontà di vivere rispetto al tentativo di sistema della coscienza migliore è necessitato da un’esigenza di coerenza verso quelle che Schopenhauer stesso considera le istanze irrinunciabili del criticismo kantiano. Al tempo stesso, si mostra come il filosofema della «coscienza migliore» abbia costituto, nelle riflessioni del giovane Schopenhauer, un importantissimo “esperimento teorico”, il cui fallimento fornì l’impulso fondamentale per l’elaborazione del sistema della volontà di vivere.
Resumo:
Biobanken sind Sammlungen von Körpersubstanzen, die mit umfangreichen gesundheits- und lebensstilbezogenen sowie geneologischen Daten ihrer Spender verknüpft sind. Sie dienen der Erforschung weit verbreiteter Krankheiten. Diese sog. Volkskrankheiten sind multifaktoriell bedingte Krankheiten. Dies bedeutet, dass diese Krankheiten das Ergebnis eines komplizierten Zusammenspiels von umwelt- und verhaltensrelevanten Faktoren mit individuellen genetischen Prädispositionen sind. Forschungen im Bereich von Pharmakogenomik und Pharmakogenetik untersuchen den Einfluss von Genen und Genexpressionen auf die individuelle Wirksamkeit von Medikamenten sowie auf die Entstehung ungewollter Nebenwirkungen und könnten so den Weg zu einer individualisierten Medizin ebnen. Menschliches Material ist ein wichtiger Bestandteil dieser Forschungen und die Nachfrage nach Sammlungen, die Proben mit Daten verknüpfen, steigt. Einerseits sehen Mediziner in Biobanken eine Chance für die Weiterentwicklung der medizinischen Forschung und des Gesundheitswesens. Andererseits lösen Biobanken auch Ängste und Misstrauen aus. Insbesondere wird befürchtet, dass Proben und Daten unkontrolliert verwendet werden und sensible Bereiche des Persönlichkeitsrechts und der persönlichen Identität betroffen sind. Diese Gefahren und Befürchtungen sind nicht neu, sondern bestanden schon in der Vergangenheit bei jeglicher Form der Spende von Körpersubstanzen. Neu ist aber der Umfang an Informationen, der durch die Genanalyse entsteht und den Spender in ganz besonderer Weise betreffen kann. Bei der Speicherung und Nutzung der medizinischen und genetischen Daten ergibt sich somit ein Spannungsfeld insbesondere zwischen dem Recht der betroffenen Datenspender auf informationelle Selbstbestimmung und den Forschungsinteressen der Datennutzer. Im Kern dreht sich die ethisch-rechtliche Bewertung der Biobanken um die Frage, ob diese Forschung zusätzliche Regeln braucht, und falls ja, wie umfassend diese sein müssten. Im Zentrum dieser Diskussion stehen dabei v.a. ethische Fragen im Zusammenhang mit der informierten Einwilligung, dem Datenschutz, der Wiederverwendung von Proben und Daten, der Information der Spender über Forschungsergebnisse und der Nutzungsrechte an den Daten. Ziel dieser Arbeit ist es, vor dem Hintergrund des Verfassungsrechts, insbesondere dem Recht auf informationelle Selbstbestimmung, das Datenschutzrecht im Hinblick auf die Risiken zu untersuchen, die sich aus der Speicherung, Verarbeitung und Kommunikation von persönlichen genetischen Informationen beim Aufbau von Biobanken ergeben. Daraus ergibt sich die weitere Untersuchung, ob und unter welchen Voraussetzungen die sich entgegenstehenden Interessen und Rechte aus verfassungsrechtlichem Blickwinkel in Einklang zu bringen sind. Eine wesentliche Frage lautet, ob die bisherigen rechtlichen Rahmenbedingungen ausreichen, um den Schutz der gespeicherten höchstpersönlichen Daten und zugleich ihre angemessene Nutzung zu gewährleisten. Das Thema ist interdisziplinär im Schnittfeld von Datenschutz, Verfassungsrecht sowie Rechts- und Medizinethik angelegt. Aus dem Inhalt: Naturwissenschaftliche und empirische Grundlagen von Biobanken – Überblick über Biobankprojekte in Europa und im außereuropäischen Ausland – Rechtsgrundlagen für Biobanken - Recht auf informationelle Selbstbestimmung - Recht auf Nichtwissen - Forschungsfreiheit - Qualitätssicherung und Verfahren – informierte Einwilligung – globale Einwilligung - Datenschutzkonzepte - Forschungsgeheimnis –– Biobankgeheimnis - Biobankgesetz
Resumo:
Als charakteristische Besonderheit in der koreanischen Geschichte besitzt der Korea-Krieg eine wichtige Position, so dass er bisher die gesamte Landesstruktur und -geschichte stark beeinflusst hat. Das gilt auch für die koreanische Filmgeschichte und nach dem Korea-Krieg im Jahr 1950 wurde in den Filmen das Thema „Landesteilung“ häufig aufgegriffen und bis heute oft behandelt.rnIn dieser Untersuchung werden solche Filme als Konflikt-Filme bezeichnet, die die Spaltung des Landes und die Beziehungen zu Nordkorea thematisieren, und insgesamt 60 Beispielfilme aus verschiedenen Filmgenres seit dem Ende des Korea-Kriegs bis zur Gegenwart analysiert und unter dem Aspekt beleuchtet, wie diese politischen und gesellschaftlichen Themen über das Verhältnis zwischen Süd- und Nordkorea repräsentiert werden. Mit Hilfe von Beispielfilmen wird versucht, herauszufinden, wie stark und unterschiedlich der Bruderkrieg und die davon abgeleitete Teilung des Landes in südkoreanischen Filmen im Wandel der Geschichte widergespiegelt werden. rnDiese Arbeit setzt sich zuerst mit Kracauers Spiegeltheorie, einer filmsoziologischen Theorie, und der Genretheorie als wichtigen theoretischen Überlegungen auseinander, um zu verdeutlichen, in welchem Bezug Konfliktfilme über die südkoreanische Gesellschaft angesehen werden und welche Rolle sie als Spiegel der Gesellschaft spielen, um gesellschaftliche Stimmungen, Bewusstseinsformen und Wünsche zu verdeutlichen. Dabei werden die kulturellen und gesellschaftlichen sowie filmwirtschaftlichen Aspekte berücksichtigt. rnDie vorliegende Arbeit bietet einen umfangreichen Überblick über den Konfliktfilm im südkoreanischen Kino seit dem Korea-Krieg. Die koreanischen Konflikt-Filme als regional-spezifische Filmkategorie stehen im engen Zusammenhang mit dieser politischen Situation und die Darstellung sowie Thematisierung Nordkoreas werden jeweils durch die verschiedenen Generationen der Filmemacher unterschiedlich präsentiert. Im südkoreanischen Diskurs bilden sie ein eigenes Genre, das alle klassischen und gemischten Filmgenres integriert; im Wandel der Geschichte haben sie sich dabei stetig weiterentwickelt, in engem Zusammenhang mit der Politik der verschiedenen Präsidenten Südkoreas gegenüber Nordkorea. rn
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Zentrales Thema der Arbeit war die Aufklärung von Verwandtschaftsverhältnissen im „Tree of Life“ der vielzelligen Tiere (Metazoa) unter Einsatz großer DNA-Sequenzdatensätze und phylogenomischer Methoden. Zur Untersuchung der internen Phylogenie der Syndermata (= meist freilebende Rädertiere („Rotifera“) + endoparasitische Kratzwürmer (Acanthocephala)) sowie ihrer Position im Metazoen-Stammbaum wurden insgesamt sieben neue mitochondriale (mt) Genome sowie neue Transkriptom-Sequenzdaten von sieben verschiedenen Syndermata-Spezies generiert und/oder analysiert. Die Stammbaumrekonstruktionen auf Grundlage dieser sowie orthologer Sequenzen anderer Spezies in Form von phylogenomischen Datensätzen mit bis zu 82.000 Aminosäurepositionen ergaben folgende Aussagen zur Evolution: (i) Innerhalb der Acanthocephala bilden monophyletische Palaeacanthocephala das Schwestertaxon zu den Eoacanthocephala. Die Archiacanthocephala sind Schwestertaxon zu allen vorgenannten. (ii) Innerhalb der Syndermata bilden die epizoisch lebenden Seisonidea das Schwestertaxon zu den endoparasitischen Acanthocephala (= Pararotatoria), die Bdelloidea sind das Schwestertaxon zu den Pararotatoria (= Hemirotifera) und die Monogononta das Schwestertaxon zu den Hemirotifera. Die klassischen Eurotatoria (= Bdelloidea + Monogononta) sind demnach paraphyletisch. (iii) Innerhalb der Metazoa bilden die Syndermata gemeinsam mit den Gnathostomulida die Gnathifera. Diese sind die Schwestergruppe zu allen anderen Spiralia-Taxa, welche sich in Rouphozoa (= Platyhelminthes + Gastrotricha) sowie die Lophotrochozoa aufspalten. Die Platyzoa (= Gnathifera + Platyhelminthes + Gastrotricha) sind demnach paraphyletisch. Diese phylogenetischen Hypothesen wurden im Hinblick auf ihre Implikationen für die Evolution morphologischer und ökologischer Merkmale interpretiert. Demnach sind während der Evolution dieser Tiergruppen mehrfach sekundäre Verlustereignisse von komplexen morphologischen Merkmalen aufgetreten (laterale sensorische Organe innerhalb der Acanthocephala und das Räderorgan (Corona) innerhalb der Syndermata), was die Verwendung dieser Merkmale im Sinne einer klassisch-morphologischen Phylogenetik kritisch erscheinen lässt. Der Endoparasitismus der Acanthocephala hat sich wahrscheinlich über ein epizoisches Zwischenstadium, wie man es heute noch bei den Seisonidea findet, entwickelt. Der letzte gemeinsame Vorfahre der Spiralia war vermutlich klein und unsegmentiert und besaß keine echte Leibeshöhle (Coelom). Demnach hätten sich Segmentierung und Coelome innerhalb der Metazoa mehrfach unabhängig voneinander (konvergent) entwickelt. Die Arbeit beinhaltete folgende weitere, zum Teil methodische Aspekte: (i) die Analyse der Architektur der mt Genome der Monogononta bestätigte die aberrante Organisation in zwei Subgenomen für die Brachionidae. (ii) Eine Prüfung der Tauglichkeit ribosomaler Proteine für molekular-phylogenetische Arbeiten ergab das Vorhandensein widersprüchlicher phylogenetischer Signale in diesen speziellen Proteinsequenzen. (iii) Es konnte nachgewiesen werden, dass systematische Fehler wie „long-branch attraction“ bei der Positionierung der Syndermata im Stammbaum der Metazoa eine große Rolle spielen und adressiert werden müssen.
Resumo:
In condensed matter systems, the interfacial tension plays a central role for a multitude of phenomena. It is the driving force for nucleation processes, determines the shape and structure of crystalline structures and is important for industrial applications. Despite its importance, the interfacial tension is hard to determine in experiments and also in computer simulations. While for liquid-vapor interfacial tensions there exist sophisticated simulation methods to compute the interfacial tension, current methods for solid-liquid interfaces produce unsatisfactory results.rnrnAs a first approach to this topic, the influence of the interfacial tension on nuclei is studied within the three-dimensional Ising model. This model is well suited because despite its simplicity, one can learn much about nucleation of crystalline nuclei. Below the so-called roughening temperature, nuclei in the Ising model are not spherical anymore but become cubic because of the anisotropy of the interfacial tension. This is similar to crystalline nuclei, which are in general not spherical but more like a convex polyhedron with flat facets on the surface. In this context, the problem of distinguishing between the two bulk phases in the vicinity of the diffuse droplet surface is addressed. A new definition is found which correctly determines the volume of a droplet in a given configuration if compared to the volume predicted by simple macroscopic assumptions.rnrnTo compute the interfacial tension of solid-liquid interfaces, a new Monte Carlo method called ensemble switch method'' is presented which allows to compute the interfacial tension of liquid-vapor interfaces as well as solid-liquid interfaces with great accuracy. In the past, the dependence of the interfacial tension on the finite size and shape of the simulation box has often been neglected although there is a nontrivial dependence on the box dimensions. As a consequence, one needs to systematically increase the box size and extrapolate to infinite volume in order to accurately predict the interfacial tension. Therefore, a thorough finite-size scaling analysis is established in this thesis. Logarithmic corrections to the finite-size scaling are motivated and identified, which are of leading order and therefore must not be neglected. The astounding feature of these logarithmic corrections is that they do not depend at all on the model under consideration. Using the ensemble switch method, the validity of a finite-size scaling ansatz containing the aforementioned logarithmic corrections is carefully tested and confirmed. Combining the finite-size scaling theory with the ensemble switch method, the interfacial tension of several model systems, ranging from the Ising model to colloidal systems, is computed with great accuracy.