10 resultados para blended workflow
em ArchiMeD - Elektronische Publikationen der Universität Mainz - Alemanha
Resumo:
Dünne Polymerfilme besitzen einen weiten Anwendungsbereich in vielen High-Tech Applikationen. All diese Anwendungen erfordern ein bestimmtes Anwendungsprofil des dünnen Films. Diese Anforderungen umschließen sowohl die physikalischen Eigenschaften des Films als auch seine Struktur. Um sie zu realisieren, werden oftmals Mischungsfilme aus verschiedenen Polymeren verwendet. Diese neigen jedoch in vielen Fällen zur bereits während der Präparation zu Phasenseparation.Vor diesem Hintergrund wurde untersucht welchen Einfluss die Verträglichkeit der gemischten Polymere auf die Strukturbildung des dünnen Films ausüben. Als Modellsystem hierfür dienten Mischungen statistischer Poly-styrol-stat-para brom-styrol Copolymere.Die Oberflächenstrukturen, die sich währen der Präparation der Mischungsfilme einstellten, wurden mit Rasterkraftmikroskopie untersucht. wobei die Topologie einer statistischen Analyse unterzogen wurde. Zum einen wurde hierzu die spektrale Leistungsdichte der Oberflächenkontour zum anderen die zugehörigen Minkowski-Funktionale berechnet.Neben Oberflächenstrukturen bilden sich während der Präparation auch Entmischungsstrukturen im inneren des Filmes. Zur Charakterisierung dieser Strukturen wurden die Filme durch Streuung unter streifendem Einfall untersucht. Durch eine modellfreie Interpretation der Streuexperimente gelang der Nachweis der inneren StrukturenFür nur schwach unverträglich Filme konnte auf Basis der Streuexperimente eine Replikation der Oberflächenstruktur des Substrates auf die Filmoberflächen nachgewiesen werden. Diese Replikation wurde für verschieden raue Substrate und bezueglich der Kinetik ihrer Abnahme beim Quellen der Filme untersucht.
Resumo:
Colloidal nanoparticles are additives to improve or modify several properties of thermoplastic or elastic polymers. Usually colloid-polymer mixtures show phase separation due to the depletion effect. The strategy to overcome this depletion demixing was to prepare surface-modified colloidal particles, which can be blended with linear polymer chains homogeneous. A successful synthesis strategy for the preparation of hairy nanospheres was developed by grafting polystyrene macromonomer chains onto polyorganosiloxane microgels. The number of hairs per particle with a core radius of approximately 10nm exceeded 150 hairs in all cases. The molecular weight of the hairs variied between 4000-18000g/mol.The compatibility of these hairy spheres mixed with linear polymer chains was investigated by AFM, TEM and SAXS. Homogeneous mixtures were found if the molecular weight of the polymer hairs on the particle surface is at least as large as the molecular weight of the matrix chains. If the chains are much shorter than the hairs, the colloidal hair corona is strongly swollen by the matrix polymer, leading to a long-range soft interparticle repulsion ('wet brush'). If hairs and chains are comparable in length, the corona shows much less volume swelling, leading to a short-range repulsive potential similar to hard sphere systems ('dry brush'). Polymerketten und Kolloidpartikel entmischen aufgrund von Depletion-Wechselwirkungen. Diese entropisch bedingte Entmischung konnte durch das Ankoppeln von Polymerhaaren verschiedenen Molekulargewichts auf die Kugeloberflächen der Kolloide bis zu hohen Konzentrationen vermieden werden. Zur Darstellung sphärischer Bürsten und haariger Tracerpartikel wurde eine neue Synthesestrategie ausgearbeitet und erfolgreich umgesetzt.Das Kompatibilitätsverhalten dieser sphärischen Bürsten in der Schmelze von Polymerketten als Matrix wurde mittels Elektronenmikroskopie und Kleinwinkelröntgenstreuung untersucht. Die Mischungen setzten sich aus sphärischen Bürsten und Matrixketten mit unterschiedlichen Molekulargewichten zusammen.Es zeigte sich, daß die Mischbarkeit entschieden durch das Verhältnis von Haarlänge zu Länge der Matrixketten beeinflußt wird.Aus den Untersuchungen des Relaxationsverhaltens mittels Rheologie und SAXS ergibt sich, daß das Konzept der 'dry brush'- und 'wet brush'-Systeme auf diese Mischungen übertragbar ist. Die Volumenquellung der Haarcorona durch die Matrixketten ist, wie die Experimente gezeigt haben, bereits im Fall von Polymeren mit relativ niedrigen Molekulargewichten zu beobachten. Sie ist umso stärker ausgeprägt, je größer das Längenverhältnis zwischen Polymerhaaren und Matrixketten ist. Die Quellung bedeutet eine Vergrößerung des effektiven Radius der Partikel und entspricht somit einer Erhöhung des effektiven Volumenbruchs. Dies führt zur Ausbildung einer höheren Ordnung und zu einem Einfrieren der Relaxation dieser strukturellen Ordnung führt.
Resumo:
The separator membrane in batteries and fuel cells is of crucial importance for the function of these devices. In lithium ion batteries the separator membrane as well as the polymer matrix of the electrodes consists of polymer electrolytes which are lithium ion conductors. To overcome the disadvantage of currently used polymer electrolytes which are highly swollen with liquids and thus mechanically and electrochemically unstable, the goal of this work is a new generation of solid polymer electrolytes with a rigid backbone and a soft side chain structure. Moreover the novel material should be based on cheap substrates and its synthesis should not be complicated aiming at low overall costs. The new materials are based on hydroxypropylcellulose and oligoethyleneoxide derivatives as starting materials. The grafting of the oligoethyleneoxide side chains onto the cellulose was carried out following two synthetic methods. One is based on a bromide derivative and another based on p-toluolsulfonyl as a leaving group. The side chain reagents were prepared form tri(ethylene glycol) monoethyl ether. In order to improve the mechanical properties the materials were crosslinked. Two different conceptions have been engaged based on either urethane chemistry or photosensitive dimethyl-maleinimide derivatives. PEO - graft - cellulose derivatives with a high degree of substitution between 2,9 and 3,0 were blended with lithium trifluoromethane-sulfonate, lithium bis(trifluorosulfone)imide and lithium tetrafluoroborate. The molar ratios were in the range from 0,02 to 0,2 [Li]/[O]. The products have been characterized with nuclear magnetic resonance (NMR), gel permeation chromatography (GPC) and laserlight scattering (LS) with respect to their degree of substitution and molecular weight. The effect of salt concentration on ionic conductivity, thermal behaviour and morphology has been investiga-ted with impedance spectroscopy, differential scanning calorimetry (DSC) and thermal gravimetric analysis (TGA). The crosslinking reactions were controlled with dynamic mechanical analysis (DMS). The degree of substitution of our products is varying between 2,8 and 3,0 as determined by NMR. PEO - graft - cellulose derivatives are highly viscous liquids at room temperature with glass transition temperatures around 215 K. The glass transition temperature for the Lithium salt complexes of PEO - graft - cellulose deri-vatives increase with increasing salt content. The maximum conductivity at room temperature is about 10-4 and at 100°C around 10-3 Scm-1. The presence of lithium salt decreases the thermal stability of the complexes in comparison to pure PEO - graft - cellulose derivatives. Complexes heated over 140 – 150°C completely lose their ionic conductivity. The temperature dependence of the conductivity presented as Arrhenius-type plots for all samples is similar in shape and follows a VTF behaviour. This proofs that the ionic transport is closely related to the segmental motions of the polymer chains. Novel cellulose derivatives with grafted oligoethylen-oxide side chains with well-defined chemical structure and high side chain grafting density have been synthesized. Cellulose was chosen as stiff, rod like macromolecule for the backbone while oligoethylen-oxides are chosen as flexible side chains. A maximum grafting density of 3.0 have been obtained. The best conductivity reaches 10-3 Scm-1 at 100°C for a Li-triflate salt complex with a [Li]/[O] ratio of 0.8. The cross-linked complexes containing the lithium salts form elastomeric films with convenient mechanical stability. Our method of cellulose modification is based on relatively cheap and commercially available substrates and as such appears to be a promising alternative for industrial applications.
Resumo:
In der vorliegenden Arbeit wurden Materialien und Aufbauten für Hybrid Solarzellen entwickelt und erforscht. rnDer Vergleich zweier bekannter Lochleitermaterialien für Solarzellen in einfachen Blend-Systemen brachte sowohl Einsicht zur unterschiedlichen Eignung der Materialien für optoelektronische Bauelemente als auch neue Erkenntnisse in Bereichen der Langzeitstabilität und Luftempfindlichkeit beider Materialien.rnWeiterhin wurde eine Methode entwickelt, um Hybrid Solarzelle auf möglichst unkomplizierte Weise aus kostengünstigen Materialien darzustellen. Die „Eintopf“-Synthese ermöglicht die unkomplizierte Darstellung eines funktionalen Hybridmaterials für die optoelektronische Anwendung. Mithilfe eines neu entwickelten amphiphilen Blockcopolymers, das als funktionelles Templat eingesetzt wurde, konnten mit einem TiO2-Precursor in einem Sol-Gel Ansatz verschiedene selbstorganisierte Morphologien des Hybridmaterials erhalten werden. Verschiedene Morphologien wurden auf ihre Eignung in Hybrid Solarzellen untersucht. Ob und warum die Morphologie des Hybridsystems die Effizienz der Solarzelle beeinflusst, konnte verdeutlicht werden. Mit der Weiterentwicklung der „Eintopf“-Synthese, durch den Austausch des TiO2-Precursors, konnte die Solarzelleneffizienz von 0.15 auf 0.4 % gesteigert werden. Weiterhin konnte die Übertragbarkeit des Systems durch den erfolgreichen Austausch des Halbleiters TiO¬2 mit ZnO bewiesen werden.rn
Resumo:
Seit Jahren werden Diskussionen über Erfolgskontrolle in der kommunalen Wirtschaftsförderung geführt. Im Vordergrund steht dabei die Suche nach Indikatoren und Verfahren, die es den kommunalen Wirtschaftsförderungen ermöglichen sollen, Erfolge zu messen. rnDa die Wirtschaftsförderung zu den freiwilligen Leistungen einer Gemeinde zählt, erhöht sich der Druck der Rechtfertigung gegenüber der Öffentlichkeit oder der Politik, das gilt insbesondere in Zeiten knapper öffentlicher Haushalte. Firmenansiedlungen, eine positive wirtschaftliche Entwicklung oder eine geringe Arbeitslosenquote sind sowohl im öffentlichen Bewusstsein als auch in der Politik wesentliche Kriterien einer erfolgreichen Wirtschaftsförderung. Sich ständig ändernde Rahmenbedingungen im wirtschaftsstrukturellen Gefüge haben dazu geführt, dass diese klassischen Nachweise von Erfolg immer seltener als solche präsentiert werden können. Erfolge sollten dennoch gemessen werden, um Maßnahmen und Instrumente einer kommunalen Wirtschaftsförderung zu überprüfen und gegebenenfalls an die geänderten Bedingungen anzupassen. rnEs ist schon mehr als 30 Jahre her, als in den 1970er Jahren die Suche nach Methoden und Verfahren der Erfolgskontrolle in der öffentlichen Verwaltung begann. Erfolge von kommunaler Wirtschaftsförderung können nicht einfach und ausschließlich an den markantesten wirtschaftlichen Ziffern der Kommune gemessen werden, z. B. der Zahl der sozialversicherungspflichtigen Arbeitsplätze. Seit Jahren wird um einen Lösungsweg bei der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung gerungen, abschließend wurde jedoch noch kein vollends befriedigend praktikabler Weg gefunden. Zu hinterfragen ist vor dem Hintergrund, inwiefern die vier Elemente einer Erfolgskontrolle, nämlich die Zielerreichungs-, Vollzugs-, Bedingungs- und Wirkungskontrolle, tatsächlich und hinreichend zum Einsatz kommen können.rnDie vorliegenden empirischen Untersuchungen beleuchten nun das Thema aus Sicht der kommunalen Wirtschaftsförderer und liefern Ergebnisse, die zu einem veränderten Bewusstsein gegenüber der Durchführung von Erfolgskontrolle in der kommunalen Wirtschaftsförderung führen müssten. Unabhängig von der Organisationsform und der Größe einer kommunalen Wirtschaftsförderung lässt sich empirisch nachweisen, dass der Anspruch, den der Begriff der Erfolgskontrolle in seiner gängigen Beschreibung erhebt, nicht hinreichend von einer kommunalen Wirtschaftsförderung erfüllt werden kann. rnMit Hilfe des neu entwickelten Prozesses einer modifizierten Erfolgskontrolle wird in vorliegender Arbeit ein idealtypischer Ablauf für eine kommunale Wirtschaftsförderung dargestellt. Der neue Ansatz einer modifizierten Erfolgskontrolle ist eine konsequente Reduzierung der Anforderungen auf das Praktikable und führt dazu, dass Erfolge der kommunalen Wirtschaftsförderung dargestellt werden können, ohne dass das Verfahren mehr Fragen offen lässt, als es beantwortet. Durch die modifizierte Erfolgskontrolle können die spezifischen Erfolge einer kommunalen Wirtschaftsförderung dargestellt und dokumentiert werden. rnEine modifizierte Erfolgskontrolle kann zweierlei: Sie ist eine Hilfestellung für die politisch Verantwortlichen bei der Erkenntnis, dass eine Notwendigkeit nach konkreten und der Ist-Situation sowie den Randbedingungen angepassten Zielformulierungen besteht. Sie bietet aber auch eine Möglichkeit, dass die kommunalen Wirtschaftsförderungseinrichtungen dem in der öffentlichen Diskussion formulierten Anspruch nach Erfolgskontrolle mit einem hohen Grad an Praktikabilität gerecht werden können. rnBevor also viele kommunale Wirtschaftsförderungen durch die fragwürdige Forderung an eine Erfolgskontrolle aufgrund der zu hohen Anforderungen an Methodik, Zeit und Personal aufgeben, sollte ihnen die Konzentration auf das Praktikable wieder Anreiz sein, eine modifizierte Erfolgskontrolle nach dem neuen Prozessschema in Angriff zu nehmen. rnrn
Resumo:
Das Glaukom ist, nach dem Katarakt, die zweithäufigste Ursache für Erblindungen weltweit mit Milionen von Betroffenen, die von dieser zunächst weitgehend symptomfreien neurodegenerativen Erkrankung heimgesucht werden. Die Möglichkeiten auf dem Feld der Diagnose beschränken sich bislang weitestgehend auf die Messung des Augeninnendrucks und der Beurteilung des Augenhintergrundes durch einen erfahrenen Augenarzt. Eine labordiagnostische Prophylaxe ist bis heute nicht verfügbar, die Zahl unerkannter Erkrankungen dementsprechend hoch. Hierdurch geht wertvolle Zeit verloren, die man für eine effektive Therapie nutzen könnte.rnBezüglich der Pathogenese des Glaukoms geht man heute von mehreren, miteinander wechselwirkenden Pathomechanismen aus, zu denen neben mechanischen Einflüssen durch einen erhöhten IOD auch Hypoxie, verminderte Neutrophinversorgung, Exzitotoxizität, oxidativer Stress und eine Beteiligung autoimmuner Prozesse gezählt werden. Unabhängig vom Pathomechanismus folgt stets die Etablierung umfangreicher degenerativer Prozesse im Sehnervenkopf, den retinalen Ganglienzellen und den Axonen des Sehnerven, die letztlich im irreversiblen Untergang dieser Neuronen münden. Diese pathologischen Prozesse im ZNS hinterlassen auf Proteomebene Spuren, die mithilfe moderner massenspektrometrischer Methoden in Kombination mit multivariaten statistischen Methoden detektierbar und als sogenannte Biomarker-Kandidaten mit definiertem Molekulargewicht darstellbar sind. In dieser Arbeit wurde ein „Workflow“ entwickelt, der es ermöglicht, diese Biomarker-Kandidaten im Blutserum und in der Tränenflüssigkeit in einfachen, reproduzierbaren Schritten zu identifizieren und zu charakterisieren. Abweichend von der etablierten Methotik der Bottom-Up-Proteomics musste hierfür eine Methode entsprechend einer Top-Down-Philosophie entwickelt werden, die es erlaubt, die Spuren des Glaukoms im Proteom zu detektieren und zu charakterisieren.rnDies erfolgte in dieser Arbeit durch sowohl massenspektroskopischen Methoden wie SELDI-TOF® und MALDI-Tof-Tof als auch durch Bead-, Gel- und Flüssigkeits-chromatographisch-basierte Separations und Fraktionierungstechniken.rnDie erfolgreiche Kombination dieser Methoden führte zu Identifikationen einer ganzen Reihe von Biomarker-Kandidaten. Unter den identifizierten Proteinen, die bezüglich ihres korrespondierenden SELDI-Peaks im Massenbereich von Biomarker-Kandidaten liegen, finden sich Zytokine und Effektormoleküle der angeborernen Immunität, stressinduzierbare Kinasen, Faktoren, die zum Schutz der Telomeren dienen, Proliferationsmarker, neuronale Antigene und Transportproteine. Darüber hinaus wurden Komponenten identifiziert, die an der neuronalen Neutrophinversorgung beteiligt sind, neuronale Rezeptoren und Antigene, Komponenten des Komplementsystems und des MHC-I-Komplexes. All diese identifizierten Proteine sind bezüglich ihrer Funktion und möglichen Rolle innerhalb der Pathogenese des Glaukoms detailliert beschrieben und charakterisiert. Dies erlaubt einen umfassenden Einblick in alle Pathomechanismen, denen nach heutigem Kenntnisstand, eine Rolle an der Pathogenese des Glaukoms unterstellt wird.rn
Resumo:
Diese Dissertation basiert auf einem theoretischen Artikel und zwei empirischen Studien.rnrnDer theoretische Artikel: Es wird ein theoretisches Rahmenmodell postuliert, welches die Kumulierung von Arbeitsunterbrechung und deren Effekte untersucht. Die meisten bisherigen Studien haben Unterbrechungen als isoliertes Phänomen betrachtet und dabei unberücksichtigt gelassen, dass während eines typischen Arbeitstages mehrere Unterbrechungen gleichzeitig (oder aufeinanderfolgend) auftreten. In der vorliegenden Dissertation wird diese Lücke gefüllt, indem der Prozess der kumulierenden Unterbrechungen untersucht wird. Es wird beschrieben,rninwieweit die Kumulation von Unterbrechungen zu einer neuen Qualität vonrn(negativen) Effekten führt. Das Zusammenspiel und die gegenseitige Verstärkung einzelner Effekte werden dargestellt und moderierende und mediierende Faktoren aufgezeigt. Auf diese Weise ist es möglich, eine Verbindung zwischen kurzfristigen Effekten einzelner Unterbrechungen und Gesundheitsbeeinträchtigungen durch die Arbeitsbedingung ‚Unterbrechungen‘rnherzustellen.rnrnStudie 1: In dieser Studie wurde untersucht, inwieweit Unterbrechungen Leistung und Wohlbefinden einer Person innerhalb eines Arbeitstages beeinflussen. Es wurde postuliert, dass das Auftreten von Unterbrechungen die Zufriedenheit mit der eigenen Leistung vermindert und das Vergessen von Intentionen und das Irritationserleben verstärkt. Geistige Anforderung und Zeitdruck galten hierbei als Mediatoren. Um dies zu testen, wurden 133 Pflegekräften über 5 Tage hinweg mittels Smartphones befragt. Mehrebenenanalysen konnten die Haupteffekte bestätigen. Die vermuteten Mediationseffekte wurden für Irritation und (teilweise) für Zufriedenheit mit der Leistung bestätigt, nicht jedoch für Vergessen von Intentionen. Unterbrechungen führen demzufolge (u.a.) zu negativen Effekten, da sie kognitiv anspruchsvoll sind und Zeit beanspruchen.rnrnStudie 2: In dieser Studie wurden Zusammenhänge zwischen kognitiven Stressorenrn(Arbeitsunterbrechungen und Multitasking) und Beanspruchungsfolgen (Stimmung und Irritation) innerhalb eines Arbeitstages gemessen. Es wurde angenommen, dass diese Zusammenhänge durch chronologisches Alter und Indikatoren funktionalen Alters (Arbeitsgedächtniskapazität und Aufmerksamkeit) moderiert wird. Ältere mit schlechteren Aufmerksamkeitsund Arbeitsgedächtnisleistungen sollten am stärksten durch die untersuchten Stressoren beeinträchtigt werden. Es wurde eine Tagebuchstudie (siehe Studie 1) und computergestützternkognitive Leistungstests durchgeführt. Mehrebenenanalysen konnten die Haupteffekte für die abhängigen Variablen Stimmung (Valenz und Wachheit) und Irritation bestätigen, nicht jedoch für Erregung (Stimmung). Dreifachinteraktionen wurden nicht in der postulierten Richtung gefunden. Jüngere, nicht Ältere profitierten von einem hohen basalen kognitivenrnLeistungsvermögen. Ältere scheinen Copingstrategien zu besitzen, die mögliche kognitive Verluste ausgleichen. rnrnIm Allgemeinen konnten die (getesteten) Annahmen des theoretischen Rahmenmodellsrnbestätigt werden. Prinzipiell scheint es möglich, Ergebnisse der Laborforschung auf die Feldforschung zu übertragen, jedoch ist es notwendig die Besonderheiten des Feldes zu berücksichtigen. Die postulieren Mediationseffekte (Studie 1) wurden (teilweise) bestätigt. Die Ergebnisse weisen jedoch darauf hin, dass der volle Arbeitstag untersucht werden muss und dass sehr spezifische abhängige Variablen auch spezifischere Mediatoren benötigen. Des Weiteren konnte in Studie 2 bestätigt werden, dass die kognitive Kapazität eine bedeutsamernRessource im Umgang mit Unterbrechungen ist, im Arbeitskontext jedoch auch andere Ressourcen wirken.
Resumo:
Analyzing and modeling relationships between the structure of chemical compounds, their physico-chemical properties, and biological or toxic effects in chemical datasets is a challenging task for scientific researchers in the field of cheminformatics. Therefore, (Q)SAR model validation is essential to ensure future model predictivity on unseen compounds. Proper validation is also one of the requirements of regulatory authorities in order to approve its use in real-world scenarios as an alternative testing method. However, at the same time, the question of how to validate a (Q)SAR model is still under discussion. In this work, we empirically compare a k-fold cross-validation with external test set validation. The introduced workflow allows to apply the built and validated models to large amounts of unseen data, and to compare the performance of the different validation approaches. Our experimental results indicate that cross-validation produces (Q)SAR models with higher predictivity than external test set validation and reduces the variance of the results. Statistical validation is important to evaluate the performance of (Q)SAR models, but does not support the user in better understanding the properties of the model or the underlying correlations. We present the 3D molecular viewer CheS-Mapper (Chemical Space Mapper) that arranges compounds in 3D space, such that their spatial proximity reflects their similarity. The user can indirectly determine similarity, by selecting which features to employ in the process. The tool can use and calculate different kinds of features, like structural fragments as well as quantitative chemical descriptors. Comprehensive functionalities including clustering, alignment of compounds according to their 3D structure, and feature highlighting aid the chemist to better understand patterns and regularities and relate the observations to established scientific knowledge. Even though visualization tools for analyzing (Q)SAR information in small molecule datasets exist, integrated visualization methods that allows for the investigation of model validation results are still lacking. We propose visual validation, as an approach for the graphical inspection of (Q)SAR model validation results. New functionalities in CheS-Mapper 2.0 facilitate the analysis of (Q)SAR information and allow the visual validation of (Q)SAR models. The tool enables the comparison of model predictions to the actual activity in feature space. Our approach reveals if the endpoint is modeled too specific or too generic and highlights common properties of misclassified compounds. Moreover, the researcher can use CheS-Mapper to inspect how the (Q)SAR model predicts activity cliffs. The CheS-Mapper software is freely available at http://ches-mapper.org.
Resumo:
In dieser Arbeit werden die Dynamiken angeregter Zustände in Donor-Akzeptorsystemen für Energieumwandlungsprozesse mit ultraschneller zeitaufgelöster optischer Spektroskopie behandelt. Der Hauptteil dieser Arbeit legt den Fokus auf die Erforschung der Photophysik organischer Solarzellen, deren aktive Schichten aus diketopyrrolopyrrole (DPP) basierten Polymeren mit kleiner Bandlücke als Elektronendonatoren und Fullerenen als Elektronenakzeptoren bestehen. rnEin zweiter Teil widmet sich der Erforschung von künstlichen primären Photosynthesereaktionszentren, basierend auf Porphyrinen, Quinonen und Ferrocenen, die jeweils als Lichtsammeleinheit, Elektronenakzeptor beziehungsweise als Elektronendonatoren eingesetzt werden, um langlebige ladungsgetrennte Zustände zu erzeugen.rnrnZeitaufgelöste Photolumineszenzspektroskopie und transiente Absorptionsspektroskopie haben gezeigt, dass Singulettexzitonenlebenszeiten in den Polymeren PTDPP-TT und PFDPP-TT Polymeren kurz sind (< 20 ps) und dass in Mischungen der Polymere mit PC71BM geminale Rekombination von gebundenen Ladungstransferzuständen ein Hauptverlustkanal ist. Zudem wurde in beiden Systemen schnelle nichtgeminale Rekombination freier Ladungen zu Triplettzuständen auf dem Polymer beobachtet. Für das Donor-Akzeptor System PDPP5T:PC71BM wurde nachgewiesen, dass die Zugabe eines Lösungsmittels mit hohem Siedepunkt, und zwar ortho-Dichlorbenzol, die Morphologie der aktiven Schicht stark beeinflusst und die Solarzelleneffizienz verbessert. Der Grund hierfür ist, dass die Donator- und Akzeptormaterialien besser durchmischt sind und sich Perkolationswege zu den Elektroden ausgebildet haben, was zu einer verbesserten Ladungsträgergeneration und Extraktion führt. Schnelle Bildung des Triplettzustands wurde in beiden PDPP5T:PC71BM Systemen beobachtet, da der Triplettzustand des Polymers über Laungstransferzustände mit Triplettcharakter populiert werden kann. "Multivariate curve resolution" (MCR) Analyse hat eine starke Intensitätsabhängigkeit gezeigt, was auf nichtgeminale Ladungsträgerrekombination in den Triplettzustand hinweist.rnrnIn den künstlichen primären Photosynthesereaktionszentren hat transiente Absorptionsspektroskopie bestätigt, dass photoinduzierter Ladungstransfer in Quinon-Porphyrin (Q-P) und Porphyrin-Ferrocen (P-Fc) Diaden sowie in Quinon-Porphyrin-Ferrocen (Q-P-Fc) Triaden effizient ist. Es wurde jedoch auch gezeigt, dass in den P-Fc unf Q-P-Fc Systemen die ladungsgetrennten Zustände in den Triplettzustand der jeweiligen Porphyrine rekombinieren. Der ladungsgetrennte Zustand konnte in der Q-P Diade durch Zugabe einer Lewissäure signifikant stabilisiert werden.
Resumo:
Moderne ESI-LC-MS/MS-Techniken erlauben in Verbindung mit Bottom-up-Ansätzen eine qualitative und quantitative Charakterisierung mehrerer tausend Proteine in einem einzigen Experiment. Für die labelfreie Proteinquantifizierung eignen sich besonders datenunabhängige Akquisitionsmethoden wie MSE und die IMS-Varianten HDMSE und UDMSE. Durch ihre hohe Komplexität stellen die so erfassten Daten besondere Anforderungen an die Analysesoftware. Eine quantitative Analyse der MSE/HDMSE/UDMSE-Daten blieb bislang wenigen kommerziellen Lösungen vorbehalten. rn| In der vorliegenden Arbeit wurden eine Strategie und eine Reihe neuer Methoden zur messungsübergreifenden, quantitativen Analyse labelfreier MSE/HDMSE/UDMSE-Daten entwickelt und als Software ISOQuant implementiert. Für die ersten Schritte der Datenanalyse (Featuredetektion, Peptid- und Proteinidentifikation) wird die kommerzielle Software PLGS verwendet. Anschließend werden die unabhängigen PLGS-Ergebnisse aller Messungen eines Experiments in einer relationalen Datenbank zusammengeführt und mit Hilfe der dedizierten Algorithmen (Retentionszeitalignment, Feature-Clustering, multidimensionale Normalisierung der Intensitäten, mehrstufige Datenfilterung, Proteininferenz, Umverteilung der Intensitäten geteilter Peptide, Proteinquantifizierung) überarbeitet. Durch diese Nachbearbeitung wird die Reproduzierbarkeit der qualitativen und quantitativen Ergebnisse signifikant gesteigert.rn| Um die Performance der quantitativen Datenanalyse zu evaluieren und mit anderen Lösungen zu vergleichen, wurde ein Satz von exakt definierten Hybridproteom-Proben entwickelt. Die Proben wurden mit den Methoden MSE und UDMSE erfasst, mit Progenesis QIP, synapter und ISOQuant analysiert und verglichen. Im Gegensatz zu synapter und Progenesis QIP konnte ISOQuant sowohl eine hohe Reproduzierbarkeit der Proteinidentifikation als auch eine hohe Präzision und Richtigkeit der Proteinquantifizierung erreichen.rn| Schlussfolgernd ermöglichen die vorgestellten Algorithmen und der Analyseworkflow zuverlässige und reproduzierbare quantitative Datenanalysen. Mit der Software ISOQuant wurde ein einfaches und effizientes Werkzeug für routinemäßige Hochdurchsatzanalysen labelfreier MSE/HDMSE/UDMSE-Daten entwickelt. Mit den Hybridproteom-Proben und den Bewertungsmetriken wurde ein umfassendes System zur Evaluierung quantitativer Akquisitions- und Datenanalysesysteme vorgestellt.