10 resultados para Purpose principle
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Wie viele andere Sprachen Ost- und Südostasiens ist das Thai eine numerusneutrale Sprache, in der ein Nomen lediglich das Konzept benennt und keinen Hinweis auf die Anzahl der Objekte liefert. Um Nomina im Thai zählen zu können, ist der Klassifikator (Klf) nötig, der die Objekte anhand ihrer semantischen Schlüsseleigenschaft herausgreift und individualisiert. Neben der Klassifikation stellt die Individualisierung die Hauptfunktion des Klf dar. Weitere Kernfunktionen des Klf außerhalb des Zählkontextes sind die Markierung der Definitheit, des Numerus sowie des Kontrasts. Die wichtigsten neuen Ergebnisse dieser Arbeit, die sowohl die Ebenen der Grammatik und Semantik als auch die der Logik und Pragmatik integriert, sind folgende: Im Thai kann der Klf sowohl auf der Element- als auch auf der Mengenebene agieren. In der Verbindung mit einem Demonstrativ kann der Klf auch eine pluralische Interpretation hervorrufen, wenn er auf eine als pluralisch präsupponierte Gesamtmenge referiert oder die Gesamtmenge in einer Teil-Ganzes-Relation individualisiert. In einem Ausdruck, der bereits eine explizite Zahlangabe enthält, bewirkt die Klf-Demonstrativ-Konstruktion eine Kontrastierung von Mengen mit gleichen Eigenschaften. Wie auch der Individualbegriff besitzt der Klf Intension und Extension. Intension und Extension von Thai-Klf verhalten sich umgekehrt proportional, d.h. je spezifischer der Inhalt eines Klf ist, desto kleiner ist sein Umfang. Der Klf signalisiert das Schlüsselmerkmal, das mit der Intension des Nomens der Identifizierung des Objekts dient. Der Klf individualisiert das Nomen, indem er Teilmengen quantifiziert. Er kann sich auf ein Objekt, eine bestimmte Anzahl von Objekten oder auf alle Objekte beziehen. Formal logisch lassen sich diese Funktionen mithilfe des Existenz- und des Allquantors darstellen. Auch die Nullstelle (NST) läßt sich formal logisch darstellen. Auf ihren jeweiligen Informationsgehalt reduziert, ergeben sich für Klf und NST abhängig von ihrer Positionierung verschiedene Informationswerte: Die Opposition von Klf und NST bewirkt in den Fragebögen ausschließlich skalare Q-Implikaturen, die sich durch die Informationsformeln in Form einer Horn-Skala darstellen lassen. In einem sich aufbauenden Kontext transportieren sowohl Klf als auch NST in der Kontextmitte bekannte Informationen, wodurch Implikaturen des M- bzw. I-Prinzips ausgelöst werden. Durch die Verbindung der Informationswerte mit den Implikaturen des Q-, M- und I-Prinzips lässt sich anhand der Positionierung direkt erkennen, wann der Klf die Funktion der Numerus-, der Definitheits- oder der Kontrast-Markierung erfüllt.
Resumo:
Das Hauptziel der vorliegenden Arbeit war die Entwicklung eines Experimentaufbaus für die elektrochemische Abscheidung von Transactiniden mit anschließender Detektion. Zu diesem Zweck wurden Experimente mit den Homologen dieser Elemente durchgeführt. Die Elektrodeposition von Tracermengen an Fremdelektroden führt zu einer Elektrodenbedeckung von weniger als einer Monolage. Die erforderlichen Abscheidepotentiale sind häufig positiver, als nach der Nernst’schen Gleichung zu erwarten ist. Dieses Phänomen nennt man Unterpotentialabscheidung. In zahlreichen Versuchen mit Radiotracern wurde die Abscheideausbeute als Funktion des Elektrodenpotentials bestimmt, wobei abzuscheidendes Ion, Elektrodenmaterial und Elektrolyt variiert wurden. Es wurden kritische Potentiale, bei denen eine nennenswerte Abscheidung gerade begann, ermittelt sowie Potentiale für die Abscheidung von 50 % der in der Lösung befindlichen Atome. Diese Werte wurden mit theoretisch vorhergesagten Potentialen und Werten aus der Literatur verglichen. Die Abscheidung von Pb als Homologem von Element 114 funktionierte sehr gut an Elektroden aus Palladium oder palladinierten Nickelelektroden unter Verwendung von 0,1 M HCl als Elektrolyt. Zur Charakterisierung der Unterpotentialabscheidung wurde neben der Radiotracer-Methode auch die Cyclovoltammetrie eingesetzt. Hier findet die Abscheidung der ersten Monolage auf der Elektrode ebenfalls häufig bei positiveren Potentialen statt, als die der Hauptmenge. Die mit beiden Methoden ermittelten Werte wurden einander gegenübergestellt. Die Elektrodeposition von kurzlebigen Isotopen muss sehr schnell erfolgen. Es konnte gezeigt werden, dass eine hohe Temperatur und damit verbunden eine niedrige Viskosität des Elektrolyten die Abscheidung beschleunigt. Ebenfalls wichtig ist ein gutes Rühren der Lösung, um eine kleine Nernst’sche Diffusionsschichtdicke zu erzielen. Das Verhältnis von Elektrodenfläche zu Elektrolytvolumen muss möglichst groß sein. Auf der Grundlage dieser Ergebnisse wurde eine für schnelle Elektrolysen optimierte Elektrolysezelle entwickelt. Unter Einsatz dieser Zelle wurden die Abscheidegeschwindigkeiten für verschiedene Ionen- und Elektrodenkombinationen gemessen. Es wurden Experimente zur Kopplung von Gasjet und Elektrolysezelle durchgeführt, dabei wurde sowohl mit am Reaktor erzeugten Spaltprodukten, mit Pb-Isotopen aus einer emanierenden Quelle und mit am Beschleuniger erzeugten Isotopen gearbeitet. Mit den dort gewonnenen Erkenntnissen wurde ein Experimentaufbau für die kontinuierliche Abscheidung und Detektion von kurzlebigen Isotopen realisiert. Am Beschleuniger wurden u. a. kurzlebige Hg- und Pb-Isotope erzeugt und mit einem Gasjet aus der Targetkammer zum ALOHA-System transportiert. Dort wurden sie in einem quasi-kontinuierlichen Prozess in die wässrige Phase überführt und zu einer Elektrolyszelle transportiert. In dieser erfolgte die Elektrodeposition auf eine bandförmige Elektrode aus Nickel oder palladiniertem Nickel. Nach der Abscheidung wurde das Band zu einer Detektorphalanx gezogen, wo der -Zerfall der neutronenarmen Isotope registriert wurde. Es wurden charakteristische Größen wie die Abscheidegeschwindigkeit und die Gesamtausbeute der Elektrolyse ermittelt. Das System wurde im Dauerbetrieb getestet. Es konnte gezeigt werden, dass der gewählte Aufbau prinzipiell für die Abscheidung von kurzlebigen, am Beschleuniger erzeugten Isotopen geeignet ist. Damit ist eine wichtige Voraussetzung für den zukünftigen Einsatz der Methode zum Studium der chemischen Eigenschaften der superschweren Elemente geschaffen.
Resumo:
Die vorliegende Arbeit untersucht die Möglichkeiten und Limitierungen der MR-Lungenbildgebung mit hyperpolarisiertem 3-He bei gegenüber üblichen Magnetfeldstärken reduzierten magnetischen Führungsfeldern. Dabei werden insbesondere auch die funktionellen Bildgebungstechniken (dynamische Bildgebung, diffusionsgewichtete Bildgebung und Bestimmung des Sauerstoff-Partialdrucks) berücksichtigt. Experimentell geschieht dies durch in vivo Messungen an einem 0.1 T-Ganzkörpertomographen. Zur systematischen Untersuchung der MR-Bildgebung unter dem Einfluss diffundierender Kontrastmittel werden analytische Simulationen, Monte-Carlo-Studien und Referenzexperimente durchgeführt. Hier wird das Augenmerk besonders auf den Einfluss von Diffusions- und Suszeptibilitätsartefakten auf die morphologische und die diffusionsgewichtete Bildgebung gerichtet. Die Entwicklung und der Vergleich verschiedener Konzepte zur Erzeugung von MR-Führungsmagnetfeldern führt zur Erfindung eines neuartigen Prinzips zur weiträumigen Homogenisierung von Magnetfeldern. Die Umsetzung dieses Prinzips erfolgt in Form eines besonders kompakten Transportbehälters für kernspinpolarisierte Edelgase. Die Arbeit beinhaltet eine ausführliche Diskussion der MR-Bildgebungstechnik in Theorie und Praxis, um die Anknüpfungspunkte an die angestellten Untersuchungen herauszuarbeiten. Teile dieser Studien wurden von der Europäischen Raumfahrtorganisation ESA finanziert (Contract No.15308/01/NL/PA).
Resumo:
Die vorliegende Arbeit wurde durch die Erkenntnis motiviert, daß die Theorie der Intentionalität ohne eine Theorie der impliziten Intentionalität unvollständig ist. Die Anlage einer solchen Theorie gründet in der Annahme, daß die impliziten ("ergänzenden oder "mit-bewußten") Erfahrungsinhalte Inhalte intentional wirksam sind: daß sie zur "Konstitution" der intentionalen Objekte – im Sinne vom Husserl und Gurwitsch – beitragen. Die Bedingungen und Umstände dieser Wirksamkeit herauszuarbeiten, ist das Hauptziel der vorliegenden Untersuchungen. Dazu wurde (1) eine phänomenologische Theorie des impliziten Inhalts kritisch expliziert, und (2) diese anhand einiger aktueller Ansätze der analytischen Philosophie auf die Probe gestellt. Im phänomenologischen Teil der Arbeit wurden zuerst die methodologischen Voraussetzungen von Gurwitschs gestalttheoretischer Neuformulierung des Husserlschen Projekts unter Berücksichtigung der sogenannten Konstanzannahme kritisch untersucht. Weiterhin wurden Husserls Noema-Konzeption und seine Horizontlehre aus der Perspektive von Gurwitschs Feldtheorie des Bewußtseins expliziert, und in der Folge Gurwitschs dreifache Gliederung des Bewußtseinsfeldes – das Kopräsenz-Kohärenz-Relevanz-Schema – um die phänomenologischen Begriffe "Potentialität", "Typik" und "Motivation" erweitert. Die Beziehungen, die diesen Begriffen zugrunde liegen, erwiesen sich als "mehr denn bloß kontigent, aber als weniger denn logisch oder notwendig" (Mulligan). An Beispielen aus der analytischen Philosphie der Wahrnehmung (Dretske, Peacocke, Dennett, Kelly) und der Sprache (Sperber, Wilson, Searle) wurde das phänomenologische Konzept des impliziten Inhalts kritisch beurteilt und weiterentwickelt. Hierbei wurde(n) unter anderem (1) der Zusammenhang zwischen dem phänomenologischen Begriff "vorprädikativer Inhalt" und dem analytischen Begriff "nichtkonzeptueller Inhalt" aufgezeigt und (2) Kriterien für die Zuschreibung impliziter Überzeugungen in den typischen Fällen der prädikativen Intentionalität zusammengetragen und systematisiert.
Resumo:
Die beiden in dieser Arbeit betrachteten Systeme, wässrige Lösungen von Ionen und ionische Flüssigkeiten, zeigen vielfältige Eigenschaften und Anwendungsmöglichkeiten, im Gegensatz zu anderen Systemen. Man findet sie beinahe überall im normalen Leben (Wasser), oder ihre Bedeutung wächst (ioinische Flüssigkeiten). Der elektronische Anteil und der atomare Anteil wurden getrennt voneinander untersucht und im Zusammenhang analysiert. Mittels dieser Methode konnten die in dem jeweiligen System auftretenden Mechanismen genauer untersucht werden. Diese Methode wird "Multiscale Modeling" genannt, dabei werden die Untereinheiten eines Systems genauer betrachtet, wie in diesem Fall die elektronischen and atomaren Teilsystem. Die Ergebnisse, die aus den jeweiligen Betrachtungen hervorgehen, zeigen, dass, im Falle von hydratisierten Ionen die Wasser-Wasser Wechselwirkungen wesentlich stärker sind als die elektrostatischen Wechselwirkung zwischen Wasser und dem Ion. Anhand der Ergebnisse ergibt sich, dass normale nicht-polarisierbare Modelle ausreichen, um Ionen-Wasser Lösungen zu beschreiben. Im Falle der ionischen Flüssigkeiten betrachten wir die elektronische Ebene mittels sehr genauer post-Hartree-Fock Methoden und DFT, deren Ergebnisse dann mit denen auf molekularer Ebene (mithilfe von CPMD/klassischer MD) in Beziehung gesetzt werden. Die bisherigen Ergebnisse zeigen, dass die Wasserstoff-Brückenbindungen im Fall der ionischen Flüssigkeiten nicht vernachässigt werden können. Weiterhin hat diese Studie herausgefunden, dass die klassischen Kraftfelder die Elektrostatik (Dipol- und Quadrupolmomente) nicht genau genug beschreibt. Die Kombination des mikroskopischen Mechanismus und der molekularen Eigenschaften ist besonders sinnvoll um verschiedene Anhaltspunkte von Simualtionen (z.B. mit klassische Molekular-Dynamik) oder Experimenten zu liefern oder solche zu erklären.
Resumo:
The understanding of the coupling between superconducting YBa2Cu3O7 (YBCO) layers decoupled by non superconducting PrBa2Cu3O7 (PBCO) layers in c-axis oriented superlattices was the aim of this thesis. For this purpose two conceptually different kind of transport experiments have been performed. rnrnIn the first type of transport experiments the current is flowing parallel to the layers. Here the coupling is probed indirectly using magnetic vortex lines, which are penetrating the superlattice. Movement of the vortex segments in neighbouring YBCO layers is more or less coherent depending on the thickness of both the superconducting and non superconducting layers. This in-plane transport was measured either by sending an external current through bridges patterned in the superlattice or by an induced internal current. rnThe vortex-creep activation energy U was determined by analysis of the in-plane resistive transition in an external magnetic field B oriented along the c-axis. The activation energies for two series of superlattices were investigated. In one series the thickness of the YBCO layers was constant (nY=4 unit cells) and the number of the PBCO unit cells was varied, while in the other the number of PBCO layers was constant (nP=4) and nY varied. The correlation length of the vortex system was determined to be 80 nm along the c-axis direction. It was found that even a single PBCO unit cell in a superlattice effectively cuts the flux lines into shorter weakly coupled segments, and the coupling of the vortex systems in neighbouring layers is negligible already for a thickness of four unit cells of the PBCO layers. A characteristic variation of the activation energy for the two series of superlattices was found, where U0 is proportional to the YBCO thickness. A change in the variation of U0 with the current I in the specimen was observed, which can be explained in terms of a crossover in the vortex creep process, generated by the transport current. At low I values the dislocations mediated (plastic) vortex creep leads to thermally assisted flux-flow behaviour, whereas at high current the dc transport measurements are dominated by elastic (collective) creep.rnThe analysis of standard dc magnetization relaxation data obtained for a series superlattices revealed the occurrence of a crossover from elastic (collective) vortex creep at low temperature to plastic vortex creep at high T. The crossover is generated by the T dependent macroscopic currents induced in the sample. The existence of this creep crossover suggests that, compared with the well known Maley technique, the use of the normalized vortex creep activation energy is a better solution for the determination of vortex creep parameters.rnrnThe second type of transport experiments was to measure directly a possible Josephson coupling between superconducting CuO2 double planes in the superlattices by investigation of the transport properties perpendicular to the superconducting planes. Here three different experiments have been performed. The first one was to pattern mesa structures photolithographically as in previous works. The second used three-dimensional nanostructures cut by a focused ion beam. For the these two experiments insufficient patterning capabilities prevented an observation of the Josephson effect in the current voltage curves. rnA third experiment used a-axis and (110) oriented YBCO films, where in-plane patterning can in principle be sufficient to measure transport perpendicular to the superconducting planes. Therefore the deposition of films with this unusual growth orientation was optimized and investigated. The structural and microstructural evolution of c-axis to a-axis orientation was monitored using x-ray diffraction, scanning electron microscopy and magnetization measurements. Films with full a-axis alignment parallel to the substrate normal could be achieved on (100)SrTiO3. Due to the symmetry of the substrate the c-axis direction in-plane is twofold. Transferring the deposition conditions to films grown on (110)SrTiO3 allowed the growth of (110) oriented YBCO films with a unique in-plane c-axis orientation. While these films were of high quality by crystallographic and macroscopic visual inspection, electron microscopy revealed a coherent crack pattern on a nanoscale. Therefore the actual current path in the sample was not determined by the macroscopic patterning which prohibited investigations of the in-plane anisotropy in this case.rn
Resumo:
Die Analyse tandem-repetitiver DNA-Sequenzen hat einen festen Platz als genetisches Typisierungsverfahren in den Breichen der stammesgeschichtlichen Untersuchung, der Verwandtschaftsanalyse und vor allem in der forensischen Spurenkunde, bei der es durch den Einsatz der Multiplex-PCR-Analyse von Short Tandem Repeat-Systemen (STR) zu einem Durchbruch bei der Aufklärung und sicheren Zuordnung von biologischen Tatortspuren kam. Bei der Sequenzierung des humanen Genoms liegt ein besonderes Augenmerk auf den genetisch polymorphen Sequenzvariationen im Genom, den SNPs (single nucleotide polymorphisms). Zwei ihrer Eigenschaften – das häufige Vorkommen innerhalb des humanen Genoms und ihre vergleichbar geringe Mutationsrate – machen sie zu besonders gut geeigneten Werkzeugen sowohl für die Forensik als auch für die Populationsgenetik.rnZum Ziel des EU-Projekts „SNPforID“, aus welchem die vorliegende Arbeit entstanden ist, wurde die Etablierung neuer Methoden zur validen Typisierung von SNPs in Multiplexverfahren erklärt. Die Berücksichtigung der Sensitivität bei der Untersuchung von Spuren sowie die statistische Aussagekraft in der forensischen Analyse standen dabei im Vordergrund. Hierfür wurden 52 autosomale SNPs ausgewählt und auf ihre maximale Individualisierungsstärke hin untersucht. Die Untersuchungen der ersten 23 selektierten Marker stellen den ersten Teil der vorliegenden Arbeit dar. Sie umfassen die Etablierung des Multiplexverfahrens und der SNaPshot™-Typisierungsmethode sowie ihre statistische Auswertung. Die Ergebnisse dieser Untersuchung sind ein Teil der darauf folgenden, in enger Zusammenarbeit der Partnerlaboratorien durchgeführten Studie der 52-SNP-Multiplexmethode. rnEbenfalls im Rahmen des Projekts und als Hauptziel der Dissertation erfolgten Etablierung und Evaluierung des auf der Microarray-Technologie basierenden Verfahrens der Einzelbasenverlängerung auf Glasobjektträgern. Ausgehend von einer begrenzten DNA-Menge wurde hierbei die Möglichkeit der simultanen Hybridisierung einer möglichst hohen Anzahl von SNP-Systemen untersucht. Die Auswahl der hierbei eingesetzten SNP-Marker erfolgte auf der Basis der Vorarbeiten, die für die Etablierung des 52-SNP-Multiplexes erfolgreich durchgeführt worden waren. rnAus einer Vielzahl von Methoden zur Genotypisierung von biallelischen Markern hebt sich das Assay in seiner Parallelität und der Einfachheit des experimentellen Ansatzes durch eine erhebliche Zeit- und Kostenersparnis ab. In der vorliegenden Arbeit wurde das „array of arrays“-Prinzip eingesetzt, um zur gleichen Zeit unter einheitlichen Versuchsbedingungen zwölf DNA-Proben auf einem Glasobjektträger zu typisieren. Auf der Basis von insgesamt 1419 typisierten Allelen von 33 Markern konnte die Validierung mit einem Typisierungserfolg von 86,75% abgeschlossen werden. Dabei wurden zusätzlich eine Reihe von Randbedingungen in Bezug auf das Sonden- und Primerdesign, die Hybridisierungsbedingungen sowie physikalische Parameter der laserinduzierten Fluoreszenzmessung der Signale ausgetestet und optimiert. rn
Resumo:
Synthetic Routes toward Functional Block Copolymers and Bioconjugates via RAFT PolymerizationrnSynthesewege für funktionelle Blockcopolymere und Biohybride über RAFT PolymerisationrnDissertation von Dipl.-Chem. Kerstin T. WissrnIm Rahmen dieser Arbeit wurden effiziente Methoden für die Funktionalisierung beider Polymerkettenenden für Polymer- und Bioanbindung von Polymeren entwickelt, die mittels „Reversible Addition-Fragmentation Chain Transfer“ (RAFT) Polymerisation hergestellt wurden. Zu diesem Zweck wurde ein Dithioester-basiertes Kettentransferagens (CTA) mit einer Aktivestereinheit in der R-Gruppe (Pentafluorphenyl-4-phenylthiocarbonylthio-4-cyanovaleriansäureester, kurz PFP-CTA) synthetisiert und seine Anwendung als universelles Werkzeug für die Funktionalisierung der -Endgruppe demonstriert. Zum Einen wurde gezeigt, wie dieser PFP-CTA als Vorläufer für die Synthese anderer funktioneller CTAs durch einfache Aminolyse des Aktivesters genutzt werden kann und somit den synthetischen Aufwand, der üblicherweise mit der Entwicklung neuer CTAs verbunden ist, reduzieren kann. Zum Anderen konnte der PFP-CTA für die Synthese verschiedener Poly(methacrylate) mit enger Molekulargewichtsverteilung und wohl definierter reaktiver -Endgruppe verwendet werden. Dieses Kettenende konnte dann erfolgreich mit verschiedenen primären Aminen wie Propargylamin, 1-Azido-3-aminopropan und Ethylendiamin oder direkt mit den Amin-Endgruppen verschiedener Peptide umgesetzt werden.rnAus der Reaktion des PFP-CTAs mit Propargylamin wurde ein Alkin-CTA erhalten, der sich als effizientes Werkzeug für die RAFT Polymerisation verschiedener Methacrylate erwiesen hat. Der Einbau der Alkin-Funktion am -Kettenende wurde mittels 1H und 13C NMR Spektroskopie sowie MALDI TOF Massenspektroskopie bestätigt. Als Modelreaktion wurde die Kopplung eines solchen alkin-terminierten Poly(di(ethylenglykol)methylethermethacrylates) (PDEGMEMA) mit azid-terminiertem Poly(tert-butylmethacrylat), das mittels Umsetzung einer Aktivester-Endgruppe erhalten wurde, als kupferkatalysierte Azid-Alkin-Cycloaddition (CuAAC) durchgeführt. Die Aufarbeitung des resultierenden Diblockcopolymers durch Fällen ermöglichte die vollständige Abtrennung des Polymerblocks 1, der im Überschuss eingesetzt wurde. Darüber hinaus blieb nur ein sehr kleiner Anteil (< 2 Gew.-%) nicht umgesetzten Polymerblocks 2, was eine erfolgreiche Polymeranbindung und die Effizienz der Endgruppen-Funktionalisierung ausgehend von der Aktivester--Endgruppe belegt.rnDie direkte Reaktion von stimuli-responsiven Polymeren mit Pentafluorphenyl(PFP)ester-Endgruppen, namentlich PDEGMEMA und Poly(oligo(ethylenglykol)methylethermethacrylat), mit kollagen-ähnlichen Peptiden ergab wohl definierte Polymer-Peptid-Diblockcopolymere und Polymer-Peptid-Polymer-Triblockcopolymer unter nahezu quantitativer Umsetzung der Endgruppen. Alle Produkte konnten vollständig von nicht umgesetztem Überschuss des Homopolymers befreit werden. In Analogie zu natürlichem Kollagen und dem nicht funktionalisierten kollagen-ähnlichen Peptid bilden die PDEGMEMA-basierten, entschützten Hybridcopolymere Trimere mit kollagen-ähnlichen Triple-Helices in kalter wässriger Lösung, was mittels Zirkular-Dichroismus-Spektroskopie (CD) nachgewiesen werden konnte. Temperaturabhängige CD-Spektroskopie, Trübungsmessungen und dynamische Lichtstreuung deuteten darauf hin, dass sie bei höheren Temperaturen doppelt stimuli-responsive Überstrukturen bilden, die mindestens zwei konformative Übergänge beim Aufheizen durchlaufen. Einer dieser Übergänge wird durch den hydrophoben Kollaps des Polymerblocks induziert, der andere durch Entfalten der kollagen-ähnlichen Triple-Helices.rnAls Ausweitung dieser synthetischen Strategie wurde homotelecheles PDEGMEMA mit zwei PFP-Esterendgruppen dargestellt, wozu der PFP-CTA für die Funktionalisierung der -Endgruppe und die radikalische Substitution des Dithioesters durch Behandlung mit einem Überschuss eines funktionellen AIBN-Derivates für die Funktionalisierung der -Endgruppe ausgenutzt wurde. Die Umsetzung der beiden reaktiven Kettenenden mit dem N-Terminus eines Peptidblocks ergab ein Peptid-Polymer-Peptid Triblockcopolymer.rnSchließlich konnten die anorganisch-organischen Hybridmaterialien PMSSQ-Poly(2,2-diethoxyethylacrylat) (PMSSQ-PDEEA) und PMSSQ-Poly(1,3-dioxolan-2-ylmethylacrylat) (PMSSQ-PDMA) für die Herstellung robuster, peptid-reaktiver Oberflächen durch Spin Coaten und thermisch induziertes Vernetzen angewendet werden. Nach saurem Entschützen der Acetalgruppen in diesen Filmen konnten die resultierenden Aldehydgruppen durch einfaches Eintauchen in eine Lösung mit einer Auswahl von Aminen und Hydroxylaminen umgesetzt werden, wodurch die Oberflächenhydrophilie modifiziert werden konnte. Darüber hinaus konnten auf Basis der unterschiedlichen Stabilität der zwei hier verglichenen Acetalgruppen Entschützungsprotokolle für die exklusive Entschützung der Diethylacetale in PMSSQ-PDEEA und deren Umsetzung ohne Entschützung der zyklischen Ethylenacetale in PMSSQ-PDMA entwickelt werden, die die Herstellung multifunktioneller Oberflächenbeschichtungen z.B. für die Proteinimmobilisierung ermöglichen.
Resumo:
This work is focused on the development of high quality nanoporous 1D photonic crystals –so called Bragg stacks – made by spin-coating of approximately 25 nm large SiO2 and TiO2 nanoparticles bearing interparticle voids large enough to infiltrate reactive species. Therefore, the first part of this work describes the synthesis of well-dispersed TiO2 nanoparticles in this size range (the corresponding SiO2 nanoparticles are commercially available). In the second part, a protocol was developed to prepare nanoporous Bragg stacks of up to 12 bilayers with high quality and precision. Tailor-made Bragg stacks were prepared for different applications such as (i) a surface emitting feedback laser with a FWHM of only 6 nm and (ii) an electrochromic device with absorption reversibly switchable by an external electrical bias independently of the Bragg reflection. In the last chapter, the approach to 1D photonic crystals is transferred to 1D phononic crystals. Contrast in the modulus is achieved by spin-coating SiO2 and PMMA as high and low moduli material. This system showed a band gap of fg = 12.6 GHz with a width of Dfg/fg = 4.5 GHz.
Resumo:
Klimamontoring benötigt eine operative, raum-zeitliche Analyse der Klimavariabilität. Mit dieser Zielsetzung, funktionsbereite Karten regelmäßig zu erstellen, ist es hilfreich auf einen Blick, die räumliche Variabilität der Klimaelemente in der zeitlichen Veränderungen darzustellen. Für aktuelle und kürzlich vergangene Jahre entwickelte der Deutsche Wetterdienst ein Standardverfahren zur Erstellung solcher Karten. Die Methode zur Erstellung solcher Karten variiert für die verschiedenen Klimaelemente bedingt durch die Datengrundlage, die natürliche Variabilität und der Verfügbarkeit der in-situ Daten.rnIm Rahmen der Analyse der raum-zeitlichen Variabilität innerhalb dieser Dissertation werden verschiedene Interpolationsverfahren auf die Mitteltemperatur der fünf Dekaden der Jahre 1951-2000 für ein relativ großes Gebiet, der Region VI der Weltorganisation für Meteorologie (Europa und Naher Osten) angewendet. Die Region deckt ein relativ heterogenes Arbeitsgebiet von Grönland im Nordwesten bis Syrien im Südosten hinsichtlich der Klimatologie ab.rnDas zentrale Ziel der Dissertation ist eine Methode zur räumlichen Interpolation der mittleren Dekadentemperaturwerte für die Region VI zu entwickeln. Diese Methode soll in Zukunft für die operative monatliche Klimakartenerstellung geeignet sein. Diese einheitliche Methode soll auf andere Klimaelemente übertragbar und mit der entsprechenden Software überall anwendbar sein. Zwei zentrale Datenbanken werden im Rahmen dieser Dissertation verwendet: So genannte CLIMAT-Daten über dem Land und Schiffsdaten über dem Meer.rnIm Grunde wird die Übertragung der Punktwerte der Temperatur per räumlicher Interpolation auf die Fläche in drei Schritten vollzogen. Der erste Schritt beinhaltet eine multiple Regression zur Reduktion der Stationswerte mit den vier Einflussgrößen der Geographischen Breite, der Höhe über Normalnull, der Jahrestemperaturamplitude und der thermischen Kontinentalität auf ein einheitliches Niveau. Im zweiten Schritt werden die reduzierten Temperaturwerte, so genannte Residuen, mit der Interpolationsmethode der Radialen Basis Funktionen aus der Gruppe der Neuronalen Netzwerk Modelle (NNM) interpoliert. Im letzten Schritt werden die interpolierten Temperaturraster mit der Umkehrung der multiplen Regression aus Schritt eins mit Hilfe der vier Einflussgrößen auf ihr ursprüngliches Niveau hochgerechnet.rnFür alle Stationswerte wird die Differenz zwischen geschätzten Wert aus der Interpolation und dem wahren gemessenen Wert berechnet und durch die geostatistische Kenngröße des Root Mean Square Errors (RMSE) wiedergegeben. Der zentrale Vorteil ist die wertegetreue Wiedergabe, die fehlende Generalisierung und die Vermeidung von Interpolationsinseln. Das entwickelte Verfahren ist auf andere Klimaelemente wie Niederschlag, Schneedeckenhöhe oder Sonnenscheindauer übertragbar.