16 resultados para Data fusion applications

em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die vorliegende Arbeit ist motiviert durch biologische Fragestellungen bezüglich des Verhaltens von Membranpotentialen in Neuronen. Ein vielfach betrachtetes Modell für spikende Neuronen ist das Folgende. Zwischen den Spikes verhält sich das Membranpotential wie ein Diffusionsprozess X der durch die SDGL dX_t= beta(X_t) dt+ sigma(X_t) dB_t gegeben ist, wobei (B_t) eine Standard-Brown'sche Bewegung bezeichnet. Spikes erklärt man wie folgt. Sobald das Potential X eine gewisse Exzitationsschwelle S überschreitet entsteht ein Spike. Danach wird das Potential wieder auf einen bestimmten Wert x_0 zurückgesetzt. In Anwendungen ist es manchmal möglich, einen Diffusionsprozess X zwischen den Spikes zu beobachten und die Koeffizienten der SDGL beta() und sigma() zu schätzen. Dennoch ist es nötig, die Schwellen x_0 und S zu bestimmen um das Modell festzulegen. Eine Möglichkeit, dieses Problem anzugehen, ist x_0 und S als Parameter eines statistischen Modells aufzufassen und diese zu schätzen. In der vorliegenden Arbeit werden vier verschiedene Fälle diskutiert, in denen wir jeweils annehmen, dass das Membranpotential X zwischen den Spikes eine Brown'sche Bewegung mit Drift, eine geometrische Brown'sche Bewegung, ein Ornstein-Uhlenbeck Prozess oder ein Cox-Ingersoll-Ross Prozess ist. Darüber hinaus beobachten wir die Zeiten zwischen aufeinander folgenden Spikes, die wir als iid Treffzeiten der Schwelle S von X gestartet in x_0 auffassen. Die ersten beiden Fälle ähneln sich sehr und man kann jeweils den Maximum-Likelihood-Schätzer explizit angeben. Darüber hinaus wird, unter Verwendung der LAN-Theorie, die Optimalität dieser Schätzer gezeigt. In den Fällen OU- und CIR-Prozess wählen wir eine Minimum-Distanz-Methode, die auf dem Vergleich von empirischer und wahrer Laplace-Transformation bezüglich einer Hilbertraumnorm beruht. Wir werden beweisen, dass alle Schätzer stark konsistent und asymptotisch normalverteilt sind. Im letzten Kapitel werden wir die Effizienz der Minimum-Distanz-Schätzer anhand simulierter Daten überprüfen. Ferner, werden Anwendungen auf reale Datensätze und deren Resultate ausführlich diskutiert.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The research has included the efforts in designing, assembling and structurally and functionally characterizing supramolecular biofunctional architectures for optical biosensing applications. In the first part of the study, a class of interfaces based on the biotin-NeutrAvidin binding matrix for the quantitative control of enzyme surface coverage and activity was developed. Genetically modified ß-lactamase was chosen as a model enzyme and attached to five different types of NeutrAvidin-functionalized chip surfaces through a biotinylated spacer. All matrices are suitable for achieving a controlled enzyme surface density. Data obtained by SPR are in excellent agreement with those derived from optical waveguide measurements. Among the various protein-binding strategies investigated in this study, it was found that stiffness and order between alkanethiol-based SAMs and PEGylated surfaces are very important. Matrix D based on a Nb2O5 coating showed a satisfactory regeneration possibility. The surface-immobilized enzymes were found to be stable and sufficiently active enough for a catalytic activity assay. Many factors, such as the steric crowding effect of surface-attached enzymes, the electrostatic interaction between the negatively charged substrate (Nitrocefin) and the polycationic PLL-g-PEG/PEG-Biotin polymer, mass transport effect, and enzyme orientation, are shown to influence the kinetic parameters of catalytic analysis. Furthermore, a home-built Surface Plasmon Resonance Spectrometer of SPR and a commercial miniature Fiber Optic Absorbance Spectrometer (FOAS), served as a combination set-up for affinity and catalytic biosensor, respectively. The parallel measurements offer the opportunity of on-line activity detection of surface attached enzymes. The immobilized enzyme does not have to be in contact with the catalytic biosensor. The SPR chip can easily be cleaned and used for recycling. Additionally, with regard to the application of FOAS, the integrated SPR technique allows for the quantitative control of the surface density of the enzyme, which is highly relevant for the enzymatic activity. Finally, the miniaturized portable FOAS devices can easily be combined as an add-on device with many other in situ interfacial detection techniques, such as optical waveguide lightmode spectroscopy (OWLS), the quartz crystal microbalance (QCM) measurements, or impedance spectroscopy (IS). Surface plasmon field-enhanced fluorescence spectroscopy (SPFS) allows for an absolute determination of intrinsic rate constants describing the true parameters that control interfacial hybridization. Thus it also allows for a study of the difference of the surface coupling influences between OMCVD gold particles and planar metal films presented in the second part. The multilayer growth process was found to proceed similarly to the way it occurs on planar metal substrates. In contrast to planar bulk metal surfaces, metal colloids exhibit a narrow UV-vis absorption band. This absorption band is observed if the incident photon frequency is resonant with the collective oscillation of the conduction electrons and is known as the localized surface plasmon resonance (LSPR). LSPR excitation results in extremely large molar extinction coefficients, which are due to a combination of both absorption and scattering. When considering metal-enhanced fluorescence we expect the absorption to cause quenching and the scattering to cause enhancement. Our further study will focus on the developing of a detection platform with larger gold particles, which will display a dominant scattering component and enhance the fluorescence signal. Furthermore, the results of sequence-specific detection of DNA hybridization based on OMCVD gold particles provide an excellent application potential for this kind of cheap, simple, and mild preparation protocol applied in this gold fabrication method. In the final chapter, SPFS was used for the in-depth characterizations of the conformational changes of commercial carboxymethyl dextran (CMD) substrate induced by pH and ionic strength variations were studied using surface plasmon resonance spectroscopy. The pH response of CMD is due to the changes in the electrostatics of the system between its protonated and deprotonated forms, while the ionic strength response is attributed from the charge screening effect of the cations that shield the charge of the carboxyl groups and prevent an efficient electrostatic repulsion. Additional studies were performed using SPFS with the aim of fluorophore labeling the carboxymethyl groups. CMD matrices showed typical pH and ionic strength responses, such as high pH and low ionic strength swelling. Furthermore, the effects of the surface charge and the crosslink density of the CMD matrix on the extent of stimuli responses were investigated. The swelling/collapse ratio decreased with decreasing surface concentration of the carboxyl groups and increasing crosslink density. The study of the CMD responses to external and internal variables will provide valuable background information for practical applications.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This PhD thesis concerns geochemical constraints on recycling and partial melting of Archean continental crust. A natural example of such processes was found in the Iisalmi area of Central Finland. The rocks from this area are Middle to Late Archean in age and experienced metamorphism and partial melting between 2.7-2.63 Ga. The work is based on extensive field work. It is furthermore founded on bulk rock geochemical data as well as in-situ analyses of minerals. All geochemical data were obtained at the Institute of Geosciences, University of Mainz using X-ray fluorescence, solution ICP-MS and laser ablation-ICP-MS for bulk rock geochemical analyses. Mineral analyses were accomplished by electron microprobe and laser ablation ICP-MS. Fluid inclusions were studied by microscope on a heating-freezing-stage at the Geoscience Center, University Göttingen. Part I focuses on the development of a new analytical method for bulk rock trace element determination by laser ablation-ICP-MS using homogeneous glasses fused from rock powder on an Iridium strip heater. This method is applicable for mafic rock samples whose melts have low viscosities and homogenize quickly at temperatures of ~1200°C. Highly viscous melts of felsic samples prevent melting and homogenization at comparable temperatures. Fusion of felsic samples can be enabled by addition of MgO to the rock powder and adjustment of melting temperature and melting duration to the rock composition. Advantages of the fusion method are low detection limits compared to XRF analyses and avoidance of wet-chemical processing and use of strong acids as in solution ICP-MS as well as smaller sample volumes compared to the other methods. Part II of the thesis uses bulk rock geochemical data and results from fluid inclusion studies for discrimination of melting processes observed in different rock types. Fluid inclusion studies demonstrate a major change in fluid composition from CO2-dominated fluids in granulites to aqueous fluids in TTG gneisses and amphibolites. Partial melts were generated in the dry, CO2-rich environment by dehydration melting reactions of amphibole which in addition to tonalitic melts produced the anhydrous mineral assemblages of granulites (grt + cpx + pl ± amph or opx + cpx + pl + amph). Trace element modeling showed that mafic granulites are residues of 10-30 % melt extraction from amphibolitic precursor rocks. The maximum degree of melting in intermediate granulites was ~10 % as inferred from modal abundances of amphibole, clinopyroxene and orthopyroxene. Carbonic inclusions are absent in upper-amphibolite facies migmatites whereas aqueous inclusion with up to 20 wt% NaCl are abundant. This suggests that melting within TTG gneisses and amphibolites took place in the presence of an aqueous fluid phase that enabled melting at the wet solidus at temperatures of 700-750°C. The strong disruption of pre-metamorphic structures in some outcrops suggests that the maximum amount of melt in TTG gneisses was ~25 vol%. The presence of leucosomes in all rock types is taken as the principle evidence for melt formation. However, mineralogical appearance as well as major and trace element composition of many leucosomes imply that leucosomes seldom represent frozen in-situ melts. They are better considered as remnants of the melt channel network, e.g. ways on which melts escaped from the system. Part III of the thesis describes how analyses of minerals from a specific rock type (granulite) can be used to determine partition coefficients between different minerals and between minerals and melt suitable for lower crustal conditions. The trace element analyses by laser ablation-ICP-MS show coherent distribution among the principal mineral phases independent of rock composition. REE contents in amphibole are about 3 times higher than REE contents in clinopyroxene from the same sample. This consistency has to be taken into consideration in models of lower crustal melting where amphibole is replaced by clinopyroxene in the course of melting. A lack of equilibrium is observed between matrix clinopyroxene / amphibole and garnet porphyroblasts which suggests a late stage growth of garnet and slow diffusion and equilibration of the REE during metamorphism. The data provide a first set of distribution coefficients of the transition metals (Sc, V, Cr, Ni) in the lower crust. In addition, analyses of ilmenite and apatite demonstrate the strong influence of accessory phases on trace element distribution. Apatite contains high amounts of REE and Sr while ilmenite incorporates about 20-30 times higher amounts of Nb and Ta than amphibole. Furthermore, trace element mineral analyses provide evidence for magmatic processes such as melt depletion, melt segregation, accumulation and fractionation as well as metasomatism having operated in this high-grade anatectic area.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In den letzten drei Jahrzehnten sind Fernerkundung und GIS in den Geowissenschaften zunehmend wichtiger geworden, um die konventionellen Methoden von Datensammlung und zur Herstellung von Landkarten zu verbessern. Die vorliegende Arbeit befasst sich mit der Anwendung von Fernerkundung und geographischen Informationssystemen (GIS) für geomorphologische Untersuchungen. Durch die Kombination beider Techniken ist es vor allem möglich geworden, geomorphologische Formen im Überblick und dennoch detailliert zu erfassen. Als Grundlagen werden in dieser Arbeit topographische und geologische Karten, Satellitenbilder und Klimadaten benutzt. Die Arbeit besteht aus 6 Kapiteln. Das erste Kapitel gibt einen allgemeinen Überblick über den Untersuchungsraum. Dieser umfasst folgende morphologische Einheiten, klimatischen Verhältnisse, insbesondere die Ariditätsindizes der Küsten- und Gebirgslandschaft sowie das Siedlungsmuster beschrieben. Kapitel 2 befasst sich mit der regionalen Geologie und Stratigraphie des Untersuchungsraumes. Es wird versucht, die Hauptformationen mit Hilfe von ETM-Satellitenbildern zu identifizieren. Angewandt werden hierzu folgende Methoden: Colour Band Composite, Image Rationing und die sog. überwachte Klassifikation. Kapitel 3 enthält eine Beschreibung der strukturell bedingten Oberflächenformen, um die Wechselwirkung zwischen Tektonik und geomorphologischen Prozessen aufzuklären. Es geht es um die vielfältigen Methoden, zum Beispiel das sog. Image Processing, um die im Gebirgskörper vorhandenen Lineamente einwandfrei zu deuten. Spezielle Filtermethoden werden angewandt, um die wichtigsten Lineamente zu kartieren. Kapitel 4 stellt den Versuch dar, mit Hilfe von aufbereiteten SRTM-Satellitenbildern eine automatisierte Erfassung des Gewässernetzes. Es wird ausführlich diskutiert, inwieweit bei diesen Arbeitsschritten die Qualität kleinmaßstäbiger SRTM-Satellitenbilder mit großmaßstäbigen topographischen Karten vergleichbar ist. Weiterhin werden hydrologische Parameter über eine qualitative und quantitative Analyse des Abflussregimes einzelner Wadis erfasst. Der Ursprung von Entwässerungssystemen wird auf der Basis geomorphologischer und geologischer Befunde interpretiert. Kapitel 5 befasst sich mit der Abschätzung der Gefahr episodischer Wadifluten. Die Wahrscheinlichkeit ihres jährlichen Auftretens bzw. des Auftretens starker Fluten im Abstand mehrerer Jahre wird in einer historischen Betrachtung bis 1921 zurückverfolgt. Die Bedeutung von Regentiefs, die sich über dem Roten Meer entwickeln, und die für eine Abflussbildung in Frage kommen, wird mit Hilfe der IDW-Methode (Inverse Distance Weighted) untersucht. Betrachtet werden außerdem weitere, regenbringende Wetterlagen mit Hilfe von Meteosat Infrarotbildern. Genauer betrachtet wird die Periode 1990-1997, in der kräftige, Wadifluten auslösende Regenfälle auftraten. Flutereignisse und Fluthöhe werden anhand von hydrographischen Daten (Pegelmessungen) ermittelt. Auch die Landnutzung und Siedlungsstruktur im Einzugsgebiet eines Wadis wird berücksichtigt. In Kapitel 6 geht es um die unterschiedlichen Küstenformen auf der Westseite des Roten Meeres zum Beispiel die Erosionsformen, Aufbauformen, untergetauchte Formen. Im abschließenden Teil geht es um die Stratigraphie und zeitliche Zuordnung von submarinen Terrassen auf Korallenriffen sowie den Vergleich mit anderen solcher Terrassen an der ägyptischen Rotmeerküste westlich und östlich der Sinai-Halbinsel.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende Dissertation behandelt die Gesamtgesteinsanalyse stabiler Siliziumisotope mit Hilfe einer „Multi Collector-ICP-MS“. Die Analysen fanden in Kooperation mit dem „Royal Museum for Central Africa“ in Belgien statt. Einer der Schwerpunkte des ersten Kapitels ist die erstmalige Analyse des δ30Si –Wertes an einem konventionellen Nu PlasmaTM „Multi-Collector ICP-MS“ Instrument, durch die Eliminierung der den 30Si “peak” überlagernden 14N16O Interferenz. Die Analyse von δ30Si wurde durch technische Modifikationen der Anlage erreicht, welche eine höherer Massenauflösung ermöglichten. Die sorgsame Charakterisierung eines adäquaten Referenzmaterials ist unabdingbar für die Abschätzung der Genauigkeit einer Messung. Die Bestimmung der „U.S. Geological Survey“ Referenzmaterialien bildet den zweiten Schwerpunkt dieses Kapitales. Die Analyse zweier hawaiianischer Standards (BHVO-1 and BHVO-2), belegt die präzise und genaue δ30Si Bestimmung und bietet Vergleichsdaten als Qualitätskontrolle für andere Labore. Das zweite Kapitel befasst sich mit kombinierter Silizium-/Sauerstoffisotope zur Untersuchung der Entstehung der Silizifizierung vulkanischer Gesteine des „Barberton Greenstone Belt“, Südafrika. Im Gegensatz zu heute, war die Silizifizierung der Oberflächennahen Schichten, einschließlich der „Chert“ Bildung, weitverbreitete Prozesse am präkambrischen Ozeanboden. Diese Horizonte sind Zeugen einer extremen Siliziummobilisierung in der Frühzeit der Erde. Dieses Kapitel behandelt die Analyse von Silizium- und Sauerstoffisotopen an drei unterschiedlichen Gesteinsprofilen mit unterschiedlich stark silizifizierten Basalten und überlagernden geschichteten „Cherts“ der 3.54, 3.45 und 3.33 Mill. Jr. alten Theespruit, Kromberg und Hooggenoeg Formationen. Siliziumisotope, Sauerstoffisotope und die SiO2-Gehalte demonstrieren in allen drei Gesteinsprofilen eine positive Korrelation mit dem Silizifizierungsgrad, jedoch mit unterschiedlichen Steigungen der δ30Si-δ18O-Verhältnisse. Meerwasser wird als Quelle des Siliziums für den Silizifizierungsprozess betrachtet. Berechnungen haben gezeigt, dass eine klassische Wasser-Gestein Wechselwirkung die Siliziumisotopenvariation nicht beeinflussen kann, da die Konzentration von Si im Meerwasser zu gering ist (49 ppm). Die Daten stimmen mit einer Zwei-Endglieder-Komponentenmischung überein, mit Basalt und „Chert“ als jeweilige Endglieder. Unsere gegenwärtigen Daten an den „Cherts“ bestätigen einen Anstieg der Isotopenzusammensetzung über der Zeit. Mögliche Faktoren, die für unterschiedliche Steigungen der δ30Si-δ18O Verhältnisse verantwortlich sein könnten sind Veränderungen in der Meerwasserisotopie, der Wassertemperatur oder sekundäre Alterationseffekte. Das letzte Kapitel beinhaltet potentielle Variationen in der Quellregion archaischer Granitoide: die Si-Isotopen Perspektive. Natriumhaltige Tonalit-Trondhjemit-Granodiorit (TTG) Intrusiva repräsentieren große Anteile der archaischen Kruste. Im Gegensatz dazu ist die heutige Kruste kaliumhaltiger (GMS-Gruppe: Granit-Monzonite-Syenite). Prozesse, die zu dem Wechsel von natriumhaltiger zu kaliumhaltiger Kruste führten sind die Thematik diesen Kapitels. Siliziumisotopenmessungen wurden hier kombiniert mit Haupt- und Spurenelementanalysen an unterschiedlichen Generationen der 3.55 bis 3.10 Mill. Yr. alten TTG und GMS Intrusiva aus dem Arbeitsgebiet. Die δ30Si-Werte in den unterschiedlichen Plutonit Generationen zeigen einen leichten Anstieg der Isotopie mit der Zeit, wobei natriumhaltige Intrusiva die niedrigste Si-Isotopenzusammensetzung aufweisen. Der leichte Anstieg in der Siliziumisotopenzusammensetzung über die Zeit könnte auf unterschiedliche Temperaturbedingungen in der Quellregion der Granitoide hinweisen. Die Entstehung von Na-reichen, leichten d30Si Granitoiden würde demnach bei höheren Temperaturen erfolgen. Die Ähnlichkeit der δ30Si-Werte in archaischen K-reichen Plutoniten und phanerozoischen K-reichen Plutoniten wird ebenfalls deutlich.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Der Lichtsammelkomplex II (LHCII) höherer Pflanzen ist eines der häufigsten Membranproteine der Welt. Er bindet 14 Chlorophylle und 4 Carotinoide nicht kovalent und fungiert in vivo als Lichtantenne des Photosystems II. Eine optimale Absorption von Licht ist auch bei Solarzellen entscheidend und es liegt nahe hier dasselbe Prinzip zu verwenden. Dafür bietet sich der Einsatz biologischer Komponenten wie des LHCII an. Dieser wurde evolutionär für eine effektive Absorption und Weiterleitung von Sonnenenergie optimiert. Zusätzlich lässt er sich in vitro in rekombinanter Form rekonstituieren. Für eine eventuelle Nutzung des LHCII in technologischen Anwendungen bedarf es der Interaktion mit anderen, vorzugsweise synthetischen Komponenten. Daher wurde die Bindung und der Energietransfer zwischen dem LHCII und organischen Fluoreszenzfarbstoffen sowie anorganischen „Quantum dots“ (QDs) untersucht. rnMit Donorfarbstoffen wurde die Grünlücke des LHCII funktionell geschlossen. Dafür wurden bis zu vier Fluoreszenzfarbstoffe kovalent an den LHCII gebunden. Diese Interaktion erfolgte sowohl mit Maleimiden an Cysteinen als auch mit N-Hydroxysuccinimidylestern an Lysinen. Die Assemblierung, Struktur und Funktion des Pigment-Protein-Komplexes wurde durch die Fluoreszenzfarbstoffe nicht gestört.rnAuf der Suche nach einem Farbstoff, der als Akzeptor die vom LHCII aufgenommene Energie übernimmt und durch Elektronenabgabe in elektrische Energie umwandelt, wurden drei Rylenfarbstoffe, ein Quaterrylen und zwei Terrylene, untersucht. Der LHCII konnte mit allen Farbstoffen erfolgreich markiert werden. Für die Nutzung der Hybridkomplexe ergaben sich allerdings Probleme. Das Quaterrylen beeinträchtigte aufgrund seiner Hydrophobizität die Rekonstitution des Proteins, während bei beiden Terrylenen der Energietransfer ineffizient war.rn Zusätzlich zu den Standard-Verknüpfungen zwischen Farbstoffen und Proteinen wurde in dieser Arbeit die „native chemische Ligation“ etabliert. Hierfür wurde eine LHCII-Mutante mit N-terminalem Cystein hergestellt, markiert und rekonstituiert. Messdaten an diesem Hybridkomplex ließen auf einen Energietransfer zwischen Farbstoff und Protein schließen. rnIn Hybridkomplexen sollen langfristig zur Ladungstrennung fähige Typ II-QDs Anwendung finden, wobei der LHCII als Lichtantenne dienen soll. Bis diese QDs verwendet werden können, wurden grundlegende Fragen der Interaktion beider Materialen an Typ I-QDs mit Energietransfer zum LHCII untersucht. Dabei zeigte sich, dass QDs in wässriger Lösung schnell aggregieren und entsprechende Kontrollen wichtig sind. Weiterführend konnte anhand der Trennung von ungebundenem und QD-gebundenem LHCII die Bindung von LHCII an QDs bestätigt werden. Dabei wurden Unterschiede in der Bindungseffizienz in Abhängigkeit der verwendeten LHCII und QDs festgestellt. Durch Herstellung von Fusionsproteinen aus LHCII und Affinitätspeptiden konnte die Bindung optimiert werden. Ein Energietransfer von QDs zu LHCII war nicht sicher nachzuweisen, da in den Hybridkomplexen zwar die QD- (Donor-) Fluoreszenz gelöscht, aber die LHCII- (Akzeptor-) Fluoreszenz nicht entsprechend stimuliert wurde.rnZusammenfassend wurden in dieser Arbeit einige Hybridkomplexe hergestellt, die in weiterführenden Ansätzen Verwendung finden können. Auf die hier gewonnenen Erkenntnisse über Interaktionen zwischen LHCII und synthetischen Materialien kann jetzt weiter aufgebaut werden.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diese Studie verfolgt das Konzept der "Oligomer-Ansatz", die von Müllen angesprochen wurde et.al. vor etwa 10 Jahren. Der Schwerpunkt dieser Arbeit war die Synthese, Charakterisierung und Anwendung von halbleitenden konjugierten heteroacenes für organische Elektronik.rnZur weiteren Entwicklung der Familie von schwefelhaltigen Pentacene, zwei Moleküle (Benzo [1,2 - b :4,5-b '] bis [b] benzodithiophene und dithieno-[2,3-d: 2', 3'-d ']-benzo-[1,2-b :4,5-b'] dithiophene)rnfacilely wurden synthetisiert und charakterisiert durch eine Kombination verschiedener Methoden. Die beiden neue Moleküle weisen hervorragende ökologische Stabilität und angewendet OFETs Geräte als p-Kanal-Material. Die Vorversuche gaben Ladungsträgerbeweglichkeiten von 0,1 cm2 V-1 s-1 undrn1,6 cm2 V-1 s-1 bzw. aus den beiden Molekülen.rnAusgelöst durch die Frage "je länger desto besser?", Eine Reihe von neuen heteroheptacenes wurden synthetisiert und intensiv im Hinblick auf ihre feste Struktur, Selbst-assenbly auf der studierte Oberfläche, opto-elektro-Eigenschaften und Eigenschaften des Orbits Grenze. Einer derrnheteroheptacene Moleküle wurden als die aktiven Kanäle in OFET Geräten angewendet. Jedoch in Trotz der mehr verlängert Konjugationslänge die Geräte auf der Basis zeigten heptacenes viel schlimmer Ladungsträgerbeweglichkeiten als die heteropentacenes. Viele Faktoren können Festlegung der endgültigen Leistung der Produkte und der chemischen Struktur ist nur einer von ihnen.rnIn dieser Hinsicht scheint es, dass es auch sinnvoll, den Einfluss der Heteroatome Studie und Alkylsubstitution auf der soliden und elektronischen Strukturen. Daher mehr heteroheptacenes wurden synthetisiert. Abwechslungsreiches in der Anzahl und Art der heteroatomare Brücke,rndiese Oligoazene ausgestellt dramatisch anders feste Struktur und opto-elektronischernEigenschaften. Darüber hinaus wurde eine kombinierte DFT Berechnung der Molekülorbitale dieser heptacenes darauf hingewiesen, dass die Einführung von Stickstoff Brücken wird die π-Orbitale zu destabilisieren, während stabilisieren den Schwefel Brücken sowohl HOMO und LUMO Energien. Dies ist wichtig, wenn man will hoch π verlängert Oligoazene synthetisieren und dabei eine angemessene Stabilität.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this thesis, we focus on the preparation of energy transfer-based quantum dot (QD)-dye hybrid systems. Two kinds of QD-dye hybrid systems have been successfully synthesized: QD-silica-dye and QD-dye hybrid systems.rn rnIn the QD-silica-dye hybrid system, multishell CdSe/CdS/ZnS QDs were adsorbed onto monodisperse Stöber silica particles with an outer silica shell of thickness 2 - 24 nm containing organic dye molecules (Texas Red). The thickness of this dye layer has a strong effect on the total sensitized acceptor emission, which is explained by the increase in the number of dye molecules homogeneously distributed within the silica shell, in combination with an enhanced surface adsorption of QDs with increasing dye amount. Our conclusions were underlined by comparison of the experimental results with Monte-Carlo simulations, and by control experiments confirming attractive interactions between QDs and Texas Red freely dissolved in solution. rnrnNew QD-dye hybrid system consisting of multishell QDs and organic perylene dyes have been synthesized. We developed a versatile approach to assemble extraordinarily stable QD-dye hybrids, which uses dicarboxylate anchors to bind rylene dyes to QD. This system yields a good basis to study the energy transfer between QD and dye because of its simple and compact design: there is no third kind of molecule linking QD and dye; no spacer; and the affinity of the functional group to the QD surface is strong. The FRET signal was measured for these complexes as a function of both dye to QD ratio and center-to-center distance between QD and dye by controlling number of covered ZnS layers. Data showed that fluorescence resonance energy transfer (FRET) was the dominant mechanism of the energy transfer in our QD-dye hybrid system. FRET efficiency can be controlled by not only adjusting the number of dyes on the QD surface or the QD to dye distance, but also properly choosing different dye and QD components. Due to the strong stability, our QD-dye complexes can also be easily transferred into water. Our approach can apply to not only dye molecules but also other organic molecules. As an example, the QDs have been complexed with calixarene molecules and the QD-calixarene complexes also have potential for QD-based energy transfer study. rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The use of linear programming in various areas has increased with the significant improvement of specialized solvers. Linear programs are used as such to model practical problems, or as subroutines in algorithms such as formal proofs or branch-and-cut frameworks. In many situations a certified answer is needed, for example the guarantee that the linear program is feasible or infeasible, or a provably safe bound on its objective value. Most of the available solvers work with floating-point arithmetic and are thus subject to its shortcomings such as rounding errors or underflow, therefore they can deliver incorrect answers. While adequate for some applications, this is unacceptable for critical applications like flight controlling or nuclear plant management due to the potential catastrophic consequences. We propose a method that gives a certified answer whether a linear program is feasible or infeasible, or returns unknown'. The advantage of our method is that it is reasonably fast and rarely answers unknown'. It works by computing a safe solution that is in some way the best possible in the relative interior of the feasible set. To certify the relative interior, we employ exact arithmetic, whose use is nevertheless limited in general to critical places, allowing us to rnremain computationally efficient. Moreover, when certain conditions are fulfilled, our method is able to deliver a provable bound on the objective value of the linear program. We test our algorithm on typical benchmark sets and obtain higher rates of success compared to previous approaches for this problem, while keeping the running times acceptably small. The computed objective value bounds are in most of the cases very close to the known exact objective values. We prove the usability of the method we developed by additionally employing a variant of it in a different scenario, namely to improve the results of a Satisfiability Modulo Theories solver. Our method is used as a black box in the nodes of a branch-and-bound tree to implement conflict learning based on the certificate of infeasibility for linear programs consisting of subsets of linear constraints. The generated conflict clauses are in general small and give good rnprospects for reducing the search space. Compared to other methods we obtain significant improvements in the running time, especially on the large instances.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diese Dissertation demonstriert und verbessert die Vorhersagekraft der Coupled-Cluster-Theorie im Hinblick auf die hochgenaue Berechnung von Moleküleigenschaften. Die Demonstration erfolgt mittels Extrapolations- und Additivitätstechniken in der Single-Referenz-Coupled-Cluster-Theorie, mit deren Hilfe die Existenz und Struktur von bisher unbekannten Molekülen mit schweren Hauptgruppenelementen vorhergesagt wird. Vor allem am Beispiel von cyclischem SiS_2, einem dreiatomigen Molekül mit 16 Valenzelektronen, wird deutlich, dass die Vorhersagekraft der Theorie sich heutzutage auf Augenhöhe mit dem Experiment befindet: Theoretische Überlegungen initiierten eine experimentelle Suche nach diesem Molekül, was schließlich zu dessen Detektion und Charakterisierung mittels Rotationsspektroskopie führte. Die Vorhersagekraft der Coupled-Cluster-Theorie wird verbessert, indem eine Multireferenz-Coupled-Cluster-Methode für die Berechnung von Spin-Bahn-Aufspaltungen erster Ordnung in 2^Pi-Zuständen entwickelt wird. Der Fokus hierbei liegt auf Mukherjee's Variante der Multireferenz-Coupled-Cluster-Theorie, aber prinzipiell ist das vorgeschlagene Berechnungsschema auf alle Varianten anwendbar. Die erwünschte Genauigkeit beträgt 10 cm^-1. Sie wird mit der neuen Methode erreicht, wenn Ein- und Zweielektroneneffekte und bei schweren Elementen auch skalarrelativistische Effekte berücksichtigt werden. Die Methode eignet sich daher in Kombination mit Coupled-Cluster-basierten Extrapolations-und Additivitätsschemata dafür, hochgenaue thermochemische Daten zu berechnen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Die vorliegende Arbeit befasst sich mit der Synthese und Charakterisierung von Polymeren mit redox-funktionalen Phenothiazin-Seitenketten. Phenothiazin und seine Derivate sind kleine Redoxeinheiten, deren reversibles Redoxverhalten mit electrochromen Eigenschaften verbunden ist. Das besondere an Phenothiazine ist die Bildung von stabilen Radikalkationen im oxidierten Zustand. Daher können Phenothiazine als bistabile Moleküle agieren und zwischen zwei stabilen Redoxzuständen wechseln. Dieser Schaltprozess geht gleichzeitig mit einer Farbveränderung an her.rnrnIm Rahmen dieser Arbeit wird die Synthese neuartiger Phenothiazin-Polymere mittels radikalischer Polymerisation beschrieben. Phenothiazin-Derivate wurden kovalent an aliphatischen und aromatischen Polymerketten gebunden. Dies erfolgte über zwei unterschiedlichen synthetischen Routen. Die erste Route beinhaltet den Einsatz von Vinyl-Monomeren mit Phenothiazin Funktionalität zur direkten Polymerisation. Die zweite Route verwendet Amin modifizierte Phenothiazin-Derivate zur Funktionalisierung von Polymeren mit Aktivester-Seitenketten in einer polymeranalogen Reaktion. rnrnPolymere mit redox-funktionalen Phenothiazin-Seitenketten sind aufgrund ihrer Elektron-Donor-Eigenschaften geeignete Kandidaten für die Verwendung als Kathodenmaterialien. Zur Überprüfung ihrer Eignung wurden Phenothiazin-Polymere als Elektrodenmaterialien in Lithium-Batteriezellen eingesetzt. Die verwendeten Polymere wiesen gute Kapazitätswerte von circa 50-90 Ah/kg sowie schnelle Aufladezeiten in der Batteriezelle auf. Besonders die Aufladezeiten sind 5-10 mal höher als konventionelle Lithium-Batterien. Im Hinblick auf Anzahl der Lade- und Entladezyklen, erzielten die Polymere gute Werte in den Langzeit-Stabilitätstests. Insgesamt überstehen die Polymere 500 Ladezyklen mit geringen Veränderungen der Anfangswerte bezüglich Ladezeiten und -kapazitäten. Die Langzeit-Stabilität hängt unmittelbar mit der Radikalstabilität zusammen. Eine Stabilisierung der Radikalkationen gelang durch die Verlängerung der Seitenkette am Stickstoffatom des Phenothiazins und der Polymerhauptkette. Eine derartige Alkyl-Substitution erhöht die Radikalstabilität durch verstärkte Wechselwirkung mit dem aromatischen Ring und verbessert somit die Batterieleistung hinsichtlich der Stabilität gegenüber Lade- und Entladezyklen. rnrnDes Weiteren wurde die praktische Anwendung von bistabilen Phenothiazin-Polymeren als Speichermedium für hohe Datendichten untersucht. Dazu wurden dünne Filme des Polymers auf leitfähigen Substraten elektrochemisch oxidiert. Die elektrochemische Oxidation erfolgte mittels Rasterkraftmikroskopie in Kombination mit leitfähigen Mikroskopspitzen. Mittels dieser Technik gelang es, die Oberfläche des Polymers im nanoskaligen Bereich zu oxidieren und somit die lokale Leitfähigkeit zu verändern. Damit konnten unterschiedlich große Muster lithographisch beschrieben und aufgrund der Veränderung ihrer Leitfähigkeit detektiert werden. Der Schreibprozess führte nur zu einer Veränderung der lokalen Leitfähigkeit ohne die topographische Beschaffenheit des Polymerfilms zu beeinflussen. Außerdem erwiesen sich die Muster als besonders stabil sowohl mechanisch als auch über die Zeit.rnrnZum Schluss wurden neue Synthesestrategien entwickelt um mechanisch stabile als auch redox-funktionale Oberflächen zu produzieren. Mit Hilfe der oberflächen-initiierten Atomtransfer-Radikalpolymerisation wurden gepfropfte Polymerbürsten mit redox-funktionalen Phenothiazin-Seitenketten hergestellt und mittels Röntgenmethoden und Rasterkraftmikroskopie analysiert. Eine der Synthesestrategien geht von gepfropften Aktivesterbürsten aus, die anschließend in einem nachfolgenden Schritt mit redox-funktionalen Gruppen modifiziert werden können. Diese Vorgehensweise ist besonders vielversprechend und erlaubt es unterschiedliche funktionelle Gruppen an den Aktivesterbürsten zu verankern. Damit können durch Verwendung von vernetzenden Gruppen neben den Redoxeigenschaften, die mechanische Stabilität solcher Polymerfilme optimiert werden. rn rn

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data deduplication describes a class of approaches that reduce the storage capacity needed to store data or the amount of data that has to be transferred over a network. These approaches detect coarse-grained redundancies within a data set, e.g. a file system, and remove them.rnrnOne of the most important applications of data deduplication are backup storage systems where these approaches are able to reduce the storage requirements to a small fraction of the logical backup data size.rnThis thesis introduces multiple new extensions of so-called fingerprinting-based data deduplication. It starts with the presentation of a novel system design, which allows using a cluster of servers to perform exact data deduplication with small chunks in a scalable way.rnrnAfterwards, a combination of compression approaches for an important, but often over- looked, data structure in data deduplication systems, so called block and file recipes, is introduced. Using these compression approaches that exploit unique properties of data deduplication systems, the size of these recipes can be reduced by more than 92% in all investigated data sets. As file recipes can occupy a significant fraction of the overall storage capacity of data deduplication systems, the compression enables significant savings.rnrnA technique to increase the write throughput of data deduplication systems, based on the aforementioned block and file recipes, is introduced next. The novel Block Locality Caching (BLC) uses properties of block and file recipes to overcome the chunk lookup disk bottleneck of data deduplication systems. This chunk lookup disk bottleneck either limits the scalability or the throughput of data deduplication systems. The presented BLC overcomes the disk bottleneck more efficiently than existing approaches. Furthermore, it is shown that it is less prone to aging effects.rnrnFinally, it is investigated if large HPC storage systems inhibit redundancies that can be found by fingerprinting-based data deduplication. Over 3 PB of HPC storage data from different data sets have been analyzed. In most data sets, between 20 and 30% of the data can be classified as redundant. According to these results, future work in HPC storage systems should further investigate how data deduplication can be integrated into future HPC storage systems.rnrnThis thesis presents important novel work in different area of data deduplication re- search.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Data sets describing the state of the earth's atmosphere are of great importance in the atmospheric sciences. Over the last decades, the quality and sheer amount of the available data increased significantly, resulting in a rising demand for new tools capable of handling and analysing these large, multidimensional sets of atmospheric data. The interdisciplinary work presented in this thesis covers the development and the application of practical software tools and efficient algorithms from the field of computer science, aiming at the goal of enabling atmospheric scientists to analyse and to gain new insights from these large data sets. For this purpose, our tools combine novel techniques with well-established methods from different areas such as scientific visualization and data segmentation. In this thesis, three practical tools are presented. Two of these tools are software systems (Insight and IWAL) for different types of processing and interactive visualization of data, the third tool is an efficient algorithm for data segmentation implemented as part of Insight.Insight is a toolkit for the interactive, three-dimensional visualization and processing of large sets of atmospheric data, originally developed as a testing environment for the novel segmentation algorithm. It provides a dynamic system for combining at runtime data from different sources, a variety of different data processing algorithms, and several visualization techniques. Its modular architecture and flexible scripting support led to additional applications of the software, from which two examples are presented: the usage of Insight as a WMS (web map service) server, and the automatic production of a sequence of images for the visualization of cyclone simulations. The core application of Insight is the provision of the novel segmentation algorithm for the efficient detection and tracking of 3D features in large sets of atmospheric data, as well as for the precise localization of the occurring genesis, lysis, merging and splitting events. Data segmentation usually leads to a significant reduction of the size of the considered data. This enables a practical visualization of the data, statistical analyses of the features and their events, and the manual or automatic detection of interesting situations for subsequent detailed investigation. The concepts of the novel algorithm, its technical realization, and several extensions for avoiding under- and over-segmentation are discussed. As example applications, this thesis covers the setup and the results of the segmentation of upper-tropospheric jet streams and cyclones as full 3D objects. Finally, IWAL is presented, which is a web application for providing an easy interactive access to meteorological data visualizations, primarily aimed at students. As a web application, the needs to retrieve all input data sets and to install and handle complex visualization tools on a local machine are avoided. The main challenge in the provision of customizable visualizations to large numbers of simultaneous users was to find an acceptable trade-off between the available visualization options and the performance of the application. Besides the implementational details, benchmarks and the results of a user survey are presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Das Gebiet der drahtlosen Kommunikationsanwendungen befindet sich in einem permanenten Entwicklungsprozess (Mobilfunkstandards: GSM/UMTS/LTE/5G, glo-bale Navigationssatellitensysteme (GNSS): GPS, GLONASS, Galileo, Beidou) zu immer höheren Datenraten und zunehmender Miniaturisierung, woraus ein hoher Bedarf für neue, optimierte Hochfrequenzmaterialien resultiert. Diese Entwicklung zeigt sich besonders in den letzten Jahren in der zunehmenden Entwicklung und Anzahl von Smartphones, welche verschiedene Technologien mit unterschiedlichen Arbeitsfrequenzen innerhalb eines Geräts kombinieren (data: 1G-4G, GPS, WLAN, Bluetooth). Die für zukünftige Technologien (z.B. 5G) benötigte Performance-steigerung kann durch die Verwendung von auf MIMO basierenden Antennensystemen realisiert werden (multiple-input & multiple-output, gesteuerte Kombination von mehreren Antennen) für welche auf dielectric Loading basierende Technologien als eine der vielversprechendsten Implementierungslösungen angesehen werden. rnDas Ziel dieser Arbeit war die Entwicklung einer geeigneten paraelektrischen Glaskeramik ($varepsilon_{r}$ > 20, $Qf$ > 5000 GHz, |$tau_f$| < 20 ppm/K; im GHz Frequenzbe-reich) im $mathrm{La_{2}O_{3}}$-$mathrm{TiO_{2}}$-$mathrm{SiO_{2}}$-$mathrm{B_{2}O_{3}}$-System für auf dielectric Loading basierende Mobilfunkkommunikationstechnologien als Alternative zu existierenden kommerziell genutzten Sinterkeramiken. Der Fokus lag hierbei auf der Frage, wie die makroskopi-schen dielektrischen Eigenschaften der Glaskeramik mit ihrer Mikrostruktur korreliert bzw. modifiziert werden können. Es konnte gezeigt werden, dass die dielektrischen Materialanforderungen durch das untersuchte System erfüllt werden und dass auf Glaskeramik basierende Dielektrika weitere vorteilhafte nichtelektro-nische Eigenschaften gegenüber gesinterten Keramiken besitzen, womit dielektrische Glaskeramiken durchaus als geeignete Alternative angesehen werden können. rnEin stabiles Grünglas mit minimalen Glasbildneranteil wurde entwickelt und die chemische Zusammensetzung bezüglich Entglasung und Redoxinstabilitäten optimiert. Geeignete Dotierungen für dielektrisch verlustarme $mathrm{TiO_{2}}$-haltige Glaskeramiken wurden identifiziert.rnDer Einfluss der Schmelzbedingungen auf die Keimbildung wurde untersucht und der Keramisierungsprozess auf einen maximalen Anteil der gewünschten Kristallphasen optimiert um optimale dielektrische Eigenschaften zu erhalten. Die mikroskopische Struktur der Glaskeramiken wurde analysiert und ihr Einfluss auf die makroskopischen dielektrischen Eigenschaften bestimmt. Die Hochfrequenzverlustmechanismen wurden untersucht und Antennen-Prototypenserien wurden analysiert um die Eignung von auf Glaskeramik basierenden Dielektrika für die Verwendung in dielectric Loading Anwendungen zu zeigen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In the current work, three studies about non-aqueous dispersions of particles were carried out by using an amphiphilic block copolymer poly(isoprene)-block-poly(methyl methacrylate) (PI-b-PMMA) as stabilizer:rn1. Dispersions of polyurethane and polyurea porous particles for polymer compositesrn2. Dispersions of PMMA and PU particles with PDI dye for study of Single Molecule Spectroscopy Detectionrn3. Dispersions of graphene nanosheets for polymer compositesrnrnIn the first study, highly porous polyurethane and polyurea particles were prepared in a non-aqueous emulsion. The preparation of porous particles consisted of two parts: At first, a system was developed where the emulsion had high stability for the polymerization among diisocyanate, diol and water. In the second part, porous particles were prepared by using two methods fission/fusion and combination by which highly porous particles were obtained. In this study, the applications of porous particles were also investigated where polyurethane particles were tested as filling material for polymer composites and as catalyst carrier for polyethylene polymerization. rnrnIn the second study, PMMA and PU particles from one non-aqueous emulsion were investigated via single molecule fluorescence detection. At first the particles were loaded with PDI dye, which were detected by fluorescence microscopy. The distribution and orientation of the PDI molecules in the particles were successfully observed by Single Molecule Fluorescence Detection. The molecules were homogenously distributed inside of the particles. In addition they had random orientation, meaning that no aggregations of dye molecules were formed. With the results, it could be supposed that the polymer chains were also homogenously distributed in the particles, and that the conformation was relatively flexible. rnrnIn the third part of the study, graphene nanosheets with high surface area were dispersed in an organic solvent with low boiling point and low toxicity, THF, stabilized with a block copolymer PI-b-PMMA. The dispersion was used to prepare polymer composites. It was shown that the modified graphene nanosheets had good compatibility with the PS and PMMA matrices. rn