757 resultados para Technische Logistik
Resumo:
In summary, thermoresponsive polyacrylamides with various amounts of different photoswitchable side groups, i. e. azobenzene, salicylideneaniline and fulgimide were successfully prepared. As such, in a first step three different chromophores with an amine functionality were synthesized. The synthesis of the stimuli-responsive materials was based on the RAFT polymerization of activated ester acrylates followed by a polymer analogous reaction with different amines. The procedure has been designed to allow the synthesis of well-defined materials with functional groups. All copolymers prepared in this way showed a LCST in aqueous solution. The LCST was in general decreased by increasing the amount of hydrophobic dye incorporated into the thermoresponsive polymer. However, in the case of the fulgimide, the LCST was hardly affected by the chromophore. For azobenzene containing PNIPAM polymers and analogues, higher LCST values were measured after irradiation of the polymer sample solutions with UV-light (Delta LCSTmax = 7.3°C). A reversible light-induced solubility change within a certain temperature range was possible. In contrast to this, irradiated samples of salicylideneaniline containing thermoresponsive copolymers showed an irreversible increase in the LCST (Delta LCSTmax = 13.0°C). Fulgimide chromophores did not influence the LCST of PNIPAM based copolymers after UV-light exposure.rnSimilar to the thermoresponsive polyacrylamides with azobenzene side groups, poly(oligo(ethylene glycol) methyl ether methacrylate) [P(OEGMA)] polymers with azobenzene end groups showed a LCST shift upon UV-irradiation. These polymers were synthesized by RAFT polymerization using a functional chain transfer agent (CTA). For this, PFP-CTA was used as a RAFT-agent for end group functionalization of (thermoresponsive) polymers. In contrast to the statistically arranged copolymers with azobenzene side groups, P(OEGMA) polymers with terminal azobenzene showed a linear increase of the LCST shifts with increasing amount of chromophore (Delta LCSTmax = 4.3°C). Noteworthy, the chemical nature of the end group exhibited a strong influence on the LCST in the case of short thermoresponsive P(OEGMA) polymers.rnThe investigation on temperature- and lightresponsive polymers was transferred onto block copolymers capable to self-assemble into polymeric micelles. Therefore, PEO-b-PNIPAM block copolymers with azobenzene moieties were synthesized successfully. These polymers showed a “smart” behavior in aqueous solution, as the reversible formation and disruption of the micelles could either be controlled by temperature or using light as a stimulus. The usefulness of these materials was demonstrated by encapsulation of a hydrophobic dye in the core of the micelle. Such materials might have a great potential as a model system for several technical or biological applications.rnFinally, double thermoresponsive block copolymers forming micellar structures in a certain temperature range with functional end groups could successfully be synthesized. These “smart materials” based on POEGMA-b-PNIPMAM have been demonstrated to be very promising for a temperature selective immobilization on a protein surface. This might be a suitable concept for further biological applications.rnConcluding, different thermoresponsive copolymers and block copolymers with lightresponsive moieties arranged along the backbone or located at the chain ends were successfully prepared and investigated. By controlling the nature of functional groups and their respective incorporation ratios, the LCST could be dialed in precisely. Further, the LCST of the polymers could be triggered by light. A light-controlled disruption of micellar structures could be shown for functional block copolymers. The importance of end groups of thermoresponsive polymers was demonstrated by a temperature-controlled protein-polymer binding of a terminal biotin-functionalized double thermoresponsive polymer. The synthetic approaches and the material properties presented here should be promising for further research and applications beyond this dissertation.rn
Resumo:
This dissertation describes the technical further development of the microclimate simulation ENVI-met in the years from 2007 to 2010 and shows examples of how ENVI-met can help solve typical microclimatic questions within an urban environment.
Resumo:
Die technische Silikatproduktion erfordert in der Regel hohe Temperaturen und extreme pH-Werte. In der Natur hingegen haben insbesondere Kieselschwämme die außergewöhnliche Fähigkeit, ihr Silikatskelett, das aus einzelnen sogenannten Spiculae besteht, enzymatisch mittels des Proteins Silicatein zu synthetisieren. rnIm Inneren der Spiculae, im zentralen Kanal, befindet sich das Axialfilament, welches hauptsächlich aus Silicatein-α aufgebaut ist. Mittels Antikörperfärbungen und Elektronenmikroskopischen Analysen konnte festgestellt werden, dass Silicatein in mit Kieselsäure-gefüllten Zellorganellen (silicasomes) nachzuweisen ist. Mittels dieser Vakuolen kann das Enzym und die Kieselsäure aus der Zelle zu den Spiculae im extrazellulären Raum befördert werden, wo diese ihre endgültige Länge und Dicke erreichen. Zum ersten Mal konnte nachgewiesen werden, dass rekombinant hergestelltes Silicatein-α sowohl als Siliciumdioxid-Polymerase als auch Siliciumdioxid-Esterase wirkt. Mittels Massenspektroskopie konnte die enzymatische Polymerisation von Kieselsäure nachverfolgt werden. Durch Spaltung der Esterbindung des künstlichen Substrates Bis(p-aminophenoxy)-dimethylsilan war es möglich kinetische Parameter der Siliciumdioxid-Esterase-Aktivität des rekombinanten Silicateins zu ermitteln.rnZu den größten biogenen Silikatstukuren auf der Erde gehören die Kieselnadeln der Schwammklasse Hexactinellida. Nadelextrakte aus den Schwammklassen Demospongien (S. domuncula) und Hexactinellida (M. chuni) wurden miteinander verglichen um die potentielle Existenz von Silicatein oder Silicatein-ähnliche Molekülen und die dazu gehörige proteolytischen Aktivität nachzuweisen. Biochemische Analysen zeigten, dass das 27 kDA große isolierte Polypeptid in Monoraphis mehrere gemeinsame Merkmale mit den Silicateinen der Demospongien teilt. Dazu gehören die Größe und die Proteinase-Aktivität. rnUm die Frage zu klären, ob das axiale Filament selbst zur Formbildung der Skelettelemente beiträgt, wurde ein neues mildes Extraktionsverfahren eingeführt. Dieses Verfahren ermöglichte die Solubilisierung des nativen Silicateins aus den Spiculae. Die isolierten Silicateine lagen als Monomere (24 kDa) vor, die Dimere durch nicht-kovalente Bindungen ausbildeten. Darüber hinaus konnten durch PAGE-Gelelektrophorese Tetramere (95 kDa) und Hexamere (135 kDa) nachgewiesen werden. Die Monomere zeigten eine beträchtliche proteolytische Aktivität, die sich während der Polymerisationsphase des Proteins weiter erhöhte. Mit Hilfe der Lichtmikroskopie und Elektronenmikroskopie (TEM) konnte die Assemblierung der Proteine zu filamentartigen Strukturen gezeigt werden. Die Selbstorganisation der Silicatein-α-Monomeren scheint eine Basis für Form- und Musterbildung der wachsenden Nadeln zu bilden.rn Um die Rolle des kürzlich entdeckten Proteins Silintaphin-1, ein starker Interaktionspartner des Silicatein-α, während der Biosilifizierung zu klären, wurden Assemblierungs-Experimente mit den rekombinanten Proteinen in vitro durchgeführt. Zusätzlich wurde deren Effekt auf die Biosilikatsynthese untersucht. Elektronenmikroskopische Analysen ergaben, dass rekombinantes Silicatein-α zufällig verteilte Aggregate bildet, während die Koinkubation beider Proteine (molekulares Verhältnis 4:1) über fraktal artige Strukturen zu Filamenten führt. Auch die enzymatische Aktivität der Silicatein-α-vermittelte Biosilikatsynthese erhöhte sich in Gegenwart von Silintaphin-1 um das 5,3-fache. rn
Resumo:
Ein wesentlicher Anteil an organischem Kohlenstoff, der in der Atmosphäre vorhanden ist, wird als leichtflüchtige organische Verbindungen gefunden. Diese werden überwiegend durch die Biosphäre freigesetzt. Solche biogenen Emissionen haben einen großen Einfluss auf die chemischen und physikalischen Eigenschaften der Atmosphäre, indem sie zur Bildung von bodennahem Ozon und sekundären organischen Aerosolen beitragen. Um die Bildung von bodennahem Ozon und von sekundären organischen Aerosolen besser zu verstehen, ist die technische Fähigkeit zur genauen Messung der Summe dieser flüchtigen organischen Substanzen notwendig. Häufig verwendete Methoden sind nur auf den Nachweis von spezifischen Nicht-Methan-Kohlenwasserstoffverbindungen fokussiert. Die Summe dieser Einzelverbindungen könnte gegebenenfalls aber nur eine Untergrenze an atmosphärischen organischen Kohlenstoffkonzentrationen darstellen, da die verfügbaren Methoden nicht in der Lage sind, alle organischen Verbindungen in der Atmosphäre zu analysieren. Einige Studien sind bekannt, die sich mit der Gesamtkohlenstoffbestimmung von Nicht-Methan-Kohlenwasserstoffverbindung in Luft beschäftigt haben, aber Messungen des gesamten organischen Nicht-Methan-Verbindungsaustauschs zwischen Vegetation und Atmosphäre fehlen. Daher untersuchten wir die Gesamtkohlenstoffbestimmung organische Nicht-Methan-Verbindungen aus biogenen Quellen. Die Bestimmung des organischen Gesamtkohlenstoffs wurde durch Sammeln und Anreichern dieser Verbindungen auf einem festen Adsorptionsmaterial realisiert. Dieser erste Schritt war notwendig, um die stabilen Gase CO, CO2 und CH4 von der organischen Kohlenstofffraktion zu trennen. Die organischen Verbindungen wurden thermisch desorbiert und zu CO2 oxidiert. Das aus der Oxidation entstandene CO2 wurde auf einer weiteren Anreicherungseinheit gesammelt und durch thermische Desorption und anschließende Detektion mit einem Infrarot-Gasanalysator analysiert. Als große Schwierigkeiten identifizierten wir (i) die Abtrennung von CO2 aus der Umgebungsluft von der organischen Kohlenstoffverbindungsfaktion während der Anreicherung sowie (ii) die Widerfindungsraten der verschiedenen Nicht-Methan-Kohlenwasserstoff-verbindungen vom Adsorptionsmaterial, (iii) die Wahl des Katalysators sowie (iiii) auftretende Interferenzen am Detektor des Gesamtkohlenstoffanalysators. Die Wahl eines Pt-Rd Drahts als Katalysator führte zu einem bedeutenden Fortschritt in Bezug auf die korrekte Ermittlung des CO2-Hintergrund-Signals. Dies war notwendig, da CO2 auch in geringen Mengen auf der Adsorptionseinheit während der Anreicherung der leichtflüchtigen organischen Substanzen gesammelt wurde. Katalytische Materialien mit hohen Oberflächen stellten sich als unbrauchbar für diese Anwendung heraus, weil trotz hoher Temperaturen eine CO2-Aufnahme und eine spätere Abgabe durch das Katalysatormaterial beobachtet werden konnte. Die Methode wurde mit verschiedenen leichtflüchtigen organischen Einzelsubstanzen sowie in zwei Pflanzenkammer-Experimenten mit einer Auswahl an VOC-Spezies getestet, die von unterschiedlichen Pflanzen emittiert wurden. Die Pflanzenkammer-messungen wurden durch GC-MS und PTR-MS Messungen begleitet. Außerdem wurden Kalibrationstests mit verschiedenen Einzelsubstanzen aus Permeations-/Diffusionsquellen durchgeführt. Der Gesamtkohlenstoffanalysator konnte den tageszeitlichen Verlauf der Pflanzenemissionen bestätigen. Allerdings konnten Abweichungen für die Mischungsverhältnisse des organischen Gesamtkohlenstoffs von bis zu 50% im Vergleich zu den begleitenden Standardmethoden beobachtet werden.
Resumo:
Mehr als hundert Jahre archäologischer Forschung haben gezeigt, dass in Mayen in römischer und mittelalterlicher Zeit eines der wichtigsten europäischen Produktionszentren für die Herstellung qualitätsvoller Gebrauchskeramik bestand. Im Rahmen dieser Studie wurden vier Befundkomplexe aus Töpfereisiedlungen vom 4. bis in das 14. Jahrhundert untersucht. Genauer handelt es sich um Keramik aus zwei spätantiken Brennanlagen des 4. Jahrhunderts im Bereich der Flur „Auf der Eich“ an den Straßen „Am Sonnenhang“ und „Frankenstraße“. Weiterhin konnte Material aus zwei Töpferofenfüllungen des 5. bis 9. Jahrhunderts analysiert werden, das 1975 auf dem Grundstück 55 an der „Siegfriedstraße“ in Brennanlagen entdeckt wurde. Hinzu kam Brenngut aus elf Töpferöfen des späten 8. bis 14. Jahrhunderts, welches in den so genannten „Burggärten“ der Genovevaburg von Mayen in den Jahren 1986/87 durch die archäologische Denkmalpflege in Koblenz geborgen wurde. Die mineralogischen Untersuchungen zur Charakterisierung der „Mayener Keramik“ wurden systematisch an den Keramikmaterialien aus diesen Fundstellen durchgeführt. Mittelalterliche Keramik aus Bornheim-Walberberg, Brühl-Eckdorf, Höhr-Grenzhausen, Langerwehe, Frechen, Brühl-Pingsdorf, Paffrath, Raeren, Ratingen-Breitscheid, Siegburg-Seehofstraße, Siegburg-Scherbenhügel, Fredelsloh und Brühl-Badorf konnte für diese Arbeit als Referenzmaterialien ebenfalls untersucht werden. Provenienzanalysen wurden an Keramikproben aus 27 Fundorten, die makroskopisch nach Mayener Ware aussehen, mit mineralogischen Methoden durchgeführt, um sie der Fundregion Mayen eindeutig zuordnen zu können.rnPhasenanalyse, chemische Analyse und thermische Analyse wurden an Keramik sowie Ton durchgeführt. Die Phasenanalyse wurde zur Bestimmung der mineralischen Zusammensetzung von Grundmasse und Magerungsmittel (Röntgendiffraktometrie (XRD), Polarisationsmikroskop, Mikro-Raman-Spektroskopie) verwendet. Die chemische Zusammensetzung wurde durch Röntgenfluoreszenzanalyse (RFA) ermittelt. Elektronenstrahlmikroanalyse (ESMA) und Laser-Massenspektrometrie mit induktiv gekoppeltem Plasma (LA-ICP-MS) wurden bei den Proben, bei denen weniger als 2g Material zur Verfügung standen, eingesetzt. Brennexperimente wurden am originalen Rohstoff der Keramik aus den „Burggärten“ der Genovevaburg durchgeführt. Gebrannter Ton wurde durch Röntgendiffraktometrie (XRD), Infrarotspektroskopie (IR) und Differential-Thermoanalyse (DTA) analysiert. rnAnhand der Messergebnisse lässt sich die Mayener Keramik aus den vier Fundplätzen in zwei Typen zusammenzufassen: der mit Feldspat-reichem Sand gemagerte römische Typ und der mit Quarz-reichem Sand gemagerte mittelalterliche Typ. Die Änderung des Magerungsmittels von Feldspat- zu Quarzsand weist eine technische Entwicklung zu höheren Brenntemperaturen von der Römerzeit bis in das Mittelalter nach. Nach der Untersuchung und dem Vergleich mit den Referenzkeramikgruppen ist festzustellen, dass durch multivariate Statistikanalysen der chemischen Komponenten die Charakterisierung der Keramik und eine Differenzierung zwischen den Keramikgruppen gelingt. Diese Erkenntnisse bildeten die Basis für Provenienzanalysen. 16 Fundorte können durch Provenienzanalyse sicher als Exportregionen der Mayener Ware festgestellt werden. Gemäß den Brennexperimenten lassen sich die chemischen Reaktionen während des Brandprozesses nachvollziehen. Zwei Methoden wurden mittels Röntgendiffraktometrie (XRD) und Differential-Thermoanalyse (DTA) zur Bestimmung der Brenntemperaturen der Keramik modelliert. Die Töpferöfen der „Burggärten“ können nach der Brenntemperatur in zwei Typen zusammengefasst werden: solche mit einer Brenntemperatur unter 1050°C und solche mit einer Brenntemperatur über 1050°C.rn
Resumo:
Among the different approaches for a construction of a fundamental quantum theory of gravity the Asymptotic Safety scenario conjectures that quantum gravity can be defined within the framework of conventional quantum field theory, but only non-perturbatively. In this case its high energy behavior is controlled by a non-Gaussian fixed point of the renormalization group flow, such that its infinite cutoff limit can be taken in a well defined way. A theory of this kind is referred to as non-perturbatively renormalizable. In the last decade a considerable amount of evidence has been collected that in four dimensional metric gravity such a fixed point, suitable for the Asymptotic Safety construction, indeed exists. This thesis extends the Asymptotic Safety program of quantum gravity by three independent studies that differ in the fundamental field variables the investigated quantum theory is based on, but all exhibit a gauge group of equivalent semi-direct product structure. It allows for the first time for a direct comparison of three asymptotically safe theories of gravity constructed from different field variables. The first study investigates metric gravity coupled to SU(N) Yang-Mills theory. In particular the gravitational effects to the running of the gauge coupling are analyzed and its implications for QED and the Standard Model are discussed. The second analysis amounts to the first investigation on an asymptotically safe theory of gravity in a pure tetrad formulation. Its renormalization group flow is compared to the corresponding approximation of the metric theory and the influence of its enlarged gauge group on the UV behavior of the theory is analyzed. The third study explores Asymptotic Safety of gravity in the Einstein-Cartan setting. Here, besides the tetrad, the spin connection is considered a second fundamental field. The larger number of independent field components and the enlarged gauge group render any RG analysis of this system much more difficult than the analog metric analysis. In order to reduce the complexity of this task a novel functional renormalization group equation is proposed, that allows for an evaluation of the flow in a purely algebraic manner. As a first example of its suitability it is applied to a three dimensional truncation of the form of the Holst action, with the Newton constant, the cosmological constant and the Immirzi parameter as its running couplings. A detailed comparison of the resulting renormalization group flow to a previous study of the same system demonstrates the reliability of the new equation and suggests its use for future studies of extended truncations in this framework.
Resumo:
Die oberflächennahe Geothermie leistet im Bereich der Nutzung regenerativer Wärme einen wichtigen Beitrag zum Klima- und Umweltschutz. Um die technische Nutzung oberflächennaher Geothermie zu optimieren, ist die Kenntnis der Beschaffenheit des geologischen Untergrundes ausschlaggebend. Die vorliegende Dissertation befasst sich mit der Bestimmung verschiedener Untergrundparameter an einem Erdwärmesondenfeld. Es wurden Untersuchungen zur Bestimmung der Wärmeleitfähigkeit wie der enhanced Thermal Response Test (eTRT), sowie eine Untergrund-Temperaturüberwachung im ersten Betriebsjahr durchgeführt. Die Überwachung zeigte keine gegenseitige Beeinflussung einzelner Sonden. Ein Vergleich zwischen dem geplanten und dem tatsächlichem Wärmebedarf des ersten Betriebsjahres ergab eine Abweichung von ca. 35%. Dies zeigt, dass die Nutzungsparameter der Anlage deren Effizienz maßgeblich beeinflussen können. Der am Beispielobjekt praktisch durchgeführte eTRT wurde mittels numerischer Modellierung auf seine Reproduzierbarkeit hin überprüft. Bei einem rein konduktiven Wärmetransport im Untergrund betrug die maximale Abweichung der Messung selbst unter ungünstigen Bedingungen lediglich ca. 6% vom zu erwartenden Wert. Die Detektion von grundwasserdurchflossenen Schichten ist in den Modellen ebenfalls gut abbildbar. Problematisch bleibt die hohe Abhängigkeit des Tests von einer konstanten Wärmezufuhr. Lediglich die Bestimmung der Wärmeleitfähigkeit über das Relaxationsverhalten des Untergrundes liefert bei Wärmeeintragsschwankungen hinreichend genaue Ergebnisse. Die mathematische Nachbearbeitung von fehlerhaften Temperaturkurven bietet einen Einstiegspunkt für weiterführende Forschung.
Resumo:
Light pseudoscalar bosons, such as the axion that was originally proposed as a solution of the strong CP problem, would cause a new spin-dependent short-range interaction. In this thesis, an experiment is presented to search for axion mediated short-range interaction between a nucleon and the spin of a polarized bound neutron. This interaction cause a shift in the precession frequency of nuclear spin-polarized gases in the presence of an unpolarized mass. To get rid of magnetic field drifts co-located, nuclear spin polarized 3He and 129Xe atoms were used. The free nuclear spin precession frequencies were measured in a homogeneous magnetic guiding field of about 350nT using LTc SQUID detectors. The whole setup was housed in a magnetically shielded room at the Physikalisch Technische Bundesanstalt (PTB) in Berlin. With this setup long nuclear spin-coherence times, respectively, transverse relaxation times of 5h for 129Xe and 53h for 3He could be achieved. The results of the last run in September 2010 are presented which give new upper limits on the scalar-pseudoscalar coupling of axion-like particles in the axion-mass window from 10^(-2) eV to 10^(-6) eV. The laboratory upper bounds were improved by up to 4 orders of magnitude.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit der Modellierung niederenergetischer elektromagnetischer und hadronischer Prozesse im Rahmen einer manifest lorentzinvarianten, chiralen effektiven Feldtheorie unter expliziter, dynamischer Berücksichtigung resonanter, das heißt vektormesonischer Freiheitsgrade. Diese effektive Theorie kann daher als Approximation der grundlegenden Quantenchromodynamik bei kleinen Energien verstanden werden. Besonderes Augenmerk wird dabei auf das verwendete Zähl- sowie Renormierungschema gelegt, wodurch eine konsistente Beschreibung mesonischer Prozesse bis zu Energien von etwa 1GeV ermöglicht wird. Das verwendete Zählschema beruht dabei im Wesentlichen auf einem Argument für großes N_c (Anzahl der Farbfreiheitsgrade) und lässt eine äquivalente Behandlung von Goldstonebosonen (Pionen) und Resonanzen (Rho- und Omegamesonen) zu. Als Renormierungsschema wird das für (bezüglich der starken Wechselwirkung) instabile Teilchen besonders geeignete complex-mass scheme als Erweiterung des extended on-mass-shell scheme verwendet, welches in Kombination mit dem BPHZ-Renormierungsverfahren (benannt nach Bogoliubov, Parasiuk, Hepp und Zimmermann) ein leistungsfähiges Konzept zur Berechnung von Quantenkorrekturen in dieser chiralen effektiven Feldtheorie darstellt. Sämtliche vorgenommenen Rechnungen schließen Terme der chiralen Ordnung vier sowie einfache Schleifen in Feynman-Diagrammen ein. Betrachtet werden unter anderem der Vektorformfaktor des Pions im zeitartigen Bereich, die reelle Compton-Streuung (beziehungsweise Photonenfusion) im neutralen und geladenen Kanal sowie die virtuelle Compton-Streuung, eingebettet in die Elektron-Positron-Annihilation. Zur Extraktion der Niederenergiekopplungskonstanten der Theorie wird letztendlich eine Reihe experimenteller Datensätze verschiedenartiger Observablen verwendet. Die hier entwickelten Methoden und Prozeduren - und insbesondere deren technische Implementierung - sind sehr allgemeiner Natur und können daher auch an weitere Problemstellungen aus diesem Gebiet der niederenergetischen Quantenchromodynamik angepasst werden.
Resumo:
Der technische Fortschritt konfrontiert die medizinische Bildgebung wie keine andere Sparte der Medizin mit einem rasanten Anstieg zu speichernder Daten. Anschaffung, Wartung und Ausbau der nötigen Infrastruktur entwickeln sich zunehmend zu einem ökonomischen Faktor. Ein Verfahren, welches diesem Trend etwas entgegensetzten könnte ist die irreversible Bilddatenkompression. Sie ist seit über 10 Jahren Gegenstand vieler Studien, deren Ergebnisse sich wiederum in Empfehlungen zum Einsatz irreversibler Kompression mehrerer nationaler und internationaler Organisation, wie CAR, DRG, RCR und ESR wiederspiegeln. Tenor dieser Empfehlungen ist, dass der Einsatz von moderater irreversibler Bilddatenkompression sicher und sinnvoll ist. Teil dieser Empfehlungen sind auch Angaben über das Maß an Kompression, ausgedrückt in Kompressionsraten, welche je nach Untersuchung und anatomischer Region als sicher anwendbar gelten und keinen diagnostisch relevanten Verlust der komprimierten Bilder erzeugen.rnVerschiedene Kompressionsalgorithmen wurden vorgeschlagen. Letztendlich haben sich vor allem die beiden weit verbreiteten Algorithmen JPEG und JPEG2000 bewährt. Letzterer erfährt in letzter Zeit zunehmen Anwendung, aufgrund seiner einfacheren Handhabung und seiner umfangreichen Zusatzfunktionen.rnAufgrund rechtlich-ethischer Bedenken hat die irreversible Kompression keine breite praktische Anwendung finden können. Dafür verantwortlich ist unter anderem auch die Unklarheit, wie sich irreversible Kompression auf Nach- und Weiterverarbeitung (sog. Postprocessing) medizinischer Bilder, wie Segmentierung, Volumetrie oder 3D-Darstellung, auswirkt. Bisherige Studien zu diesem Thema umfassen vier verschiedene Postprocessing-Algorithmen. Die untersuchten Algorithmen zeigten sich bei verlustbehafteter Kompression im Bereich der erwähnten, publizierten Kompressionsraten weitgehend unbeeinflusst. Lediglich die computergestützte Messung von Stenosegraden in der digitalen Koronarangiographie kollidiert mit den in Großbritannien geltenden Empfehlungen. Die Verwendung unterschiedlicher Kompressionsalgorithmen schränkt die allgemeinernAussagekraft dieser Studienergebnisse außerdem ein.rnZur Erweiterung der Studienlage wurden vier weitere Nach- und Weiterverarbeitungsalgorithmen auf ihre Kompressionstoleranz untersucht. Dabei wurden die Kompressionsraten von 8:1, 10:1 und 15:1 verwendet, welche um die empfohlenen Kompressionsraten von CAR, DRG, RCR und ESR liegen und so ein praxisnahes Setting bieten. Als Kompressionsalgorithmus wurde JPEG2000 verwendet, aufgrund seiner zunehmenden Nutzung in Studien sowie seiner bereits erwähnten Vorzüge in Sachen Handhabung und Zusatzfunktionen. Die vier Algorithmen umfassten das 3D-Volume rendering von CT-Angiographien der Becken-Bein-Gefäße, die Computer-assistierte Detektion von Lungenrundherden, die automatisierte Volumetrie von Leberrundherden und die funktionelle Bestimmung der Ejektionsfraktion in computertomographischen Aufnahmen des Herzens.rnAlle vier Algorithmen zeigten keinen Einfluss durch irreversibler Bilddatenkompression in denrngewählten Kompressionsraten (8:1, 10:1 und 15:1). Zusammen mit der bestehenden Literatur deuten die Ergebnisse an, dass moderate irreversible Kompression im Rahmen aktueller Empfehlungen keinen Einfluss auf Nach- und Weiterverarbeitung medizinischer Bilder hat. Eine explizitere Vorhersage zu einem bestimmten, noch nicht untersuchten Algorithmus ist jedoch aufgrund der unterschiedlichen Funktionsweisen und Programmierungen nicht sicher möglich.rnSofern ein Postprocessing Algorithmus auf komprimiertes Bildmaterial angewendet werden soll, muss dieser zunächst auf seine Kompressionstoleranz getestet werden. Dabei muss der Test eine rechtlich-ethische Grundlage für den Einsatz des Algorithmus bei komprimiertem Bildmaterial schaffen. Es sind vor allem zwei Optionen denkbar, die Testung institutsintern, eventuell unter Zuhilfenahme von vorgefertigten Bibliotheken, oder die Testung durch den Hersteller des Algorithmus.
Resumo:
Der Haupt-Lichtsammelkomplex des Fotosystems II (LHCII) setzt sich aus einem Proteinanteil und nicht-kovalent gebundenen Pigmenten – 8 Chlorophyll a, 6 Chlorophyll b und 4 Carotinoide - zusammen. Er assembliert in vivo zu einem Trimer, in dem die Monomereinheiten ebenfalls nicht-kovalent miteinander wechselwirken. Die ausgesprochen hohe Farbstoffdichte und die Tatsache, dass der Komplex rekombinant hergestellt werden kann, machen den LHCII zu einem interessanten Kandidaten für technische Anwendungen wie einer Farbstoffsolarzelle. Allerdings muss hierzu seine thermische Stabilität drastisch erhöht werden.rnDer Einschluss von Proteinen/Enzymen in Silikat erhöht deren Stabilität gegenüber Hitze signifikant. LHCII sollte als erster rekombinanter Membranproteinkomplex mittels kovalent verbundener, polykationischen Sequenzen in Silikat eingeschlossen werden. Hierzu wurde der Komplex auf zwei Weisen polykationisch modifiziert: Auf Genebene wurde die Sequenz des R5-Peptids in den N-terminalen Bereich des LHCP-Gens eingeführt und ein Protokoll zur Überexpression, Rekonstitution und Trimerisierung etabliert. Außerdem wurde eine kovalente Modifikation des trimeren LHCII mit dem Arginin-reichen Protamin über heterobifunktionelle Crosslinker entwickelt. Beide resultierenden LHCII-Derivate waren in der Lage, Silikat autogen zu fällen. Die Stabilisierung der so in Silikat präzipitierten Komplexe war jedoch deutlich geringer als bei nicht-modifizierten Komplexen, die durch eine Spermin-induzierte Copräzipitation eingeschlossenen wurden. Dabei zeigte sich, dass für den Anteil der eingebauten Komplexe und das Ausmaß an Stabilisierung die Größe und klare partikuläre Struktur des Silikats entscheidend ist. Kleine Partikel mit einem Durchmesser von etwa 20 nm führten zu einem Einbau von rund 75 % der Komplexe, und mehr als 80 % des Energietransfers innerhalb des Komplexes blieben erhalten, wenn für 24 Stunden bei 50°C inkubiert wurde. Nicht in Silikat eingeschlossene Komplexe verloren bei 50°C ihren Komplex-internen Energietransfer binnen weniger Minuten. Es war dabei unerheblich, ob die Partikelgröße durch die Wahl des Puffers und des entsprechenden pH-Wertes, oder aber durch Variation des Spermin-zu-Kieselsäure-Verhältnisses erreicht wurde. Wurden die polykationisch veränderten Komplexe in solchen Copräzipitationen verwendet, so erhöhte sich der Anteil an eingebauten Komplexen auf über 90 %, jedoch wurde nur bei der R5-modifizierten Variante vergleichbare Ausmaße an Stabilisierung erreicht. Ein noch höherer Anteil an Komplexen wurde in das Silikatpellet eingebaut, wenn LHCII kovalent mit Silanolgruppen modifiziert wurde (95 %); jedoch war das Ausmaß der Stabilisierung wiederum geringer als bei einer Copräzipitation. Die analysierten Fällungssysteme waren außerdem in der Lage, Titandioxid zu fällen, wobei der Komplex in dieses eingebaut wurde. Allerdings muss das Stabilisierungspotential hier noch untersucht werden. Innerhalb eines Silikatpräzipitats aggregierten die Komplexe nicht, zeigten aber einen inter-trimeren Energietransfer, der sehr wahrscheinlich auf einem Förster Resonanz Mechanismus basiert. rnDies und das hohe Maß an Stabilisierung eröffnen neue Möglichkeiten, rekombinanten LHCII in technischen Applikationen als Lichtsammelkomponente zu verwenden.rn
Resumo:
Ziel der vorliegenden Dissertation war es, Einblicke in das Kristallisationsverhalten weicher Materie („soft matter“), wie verschiedener Polymere oder Wasser, unter räumlicher Einschränkung („confinement“) zu erlangen. Dabei sollte untersucht werden, wie, weshalb und wann die Kristallisation in nanoporösen Strukturen eintritt. Desweiteren ist Kristallisation weicher Materie in nanoporösen Strukturen nicht nur aus Aspekten der Grundlagenforschung von großem Interesse, sondern es ergeben sich zahlreiche praktische Anwendungen. Durch die gezielte Steuerung der Kristallinität von Polymeren könnten somit Materialien mit verschiendenen mechanischen und optischen Eigenschaften erhalten werden. Desweiteren wurde auch räumlich eingeschränktes Wasser untersucht. Dieses spielt eine wichtige Rolle in der Molekularbiologie, z.B. für das globuläre Protein, und als Wolkenkondensationskeime in der Atmosphärenchemie und Physik. Auch im interstellaren Raum ist eingeschränktes Wasser in Form von Eispartikeln anzutreffen. Die Kristallisation von eingeschränktem Wasser zu verstehen und zu beeinflussen ist letztlich auch für die Haltbarkeit von Baumaterialien wie etwa Zement von großem Interesse.rnUm dies zu untersuchen wird Wasser in der Regel stark abgekühlt und das Kristallisationsverhalten in Abhängigkeit des Volumens untersucht. Dabei wurde beobachtet, dass Mikro- bzw. Nanometer große Volumina erst ab -38 °C bzw. -70 °C kristallisieren. Wasser unterliegt dabei in der Regel dem Prozess der homogenen Nukleation. In der Regel gefriert Wasser aber bei höheren Temperaturen, da durch Verunreinigungen eine vorzeitige, heterogene Nukleation eintritt.rnDie vorliegende Arbeit untersucht die sachdienlichen Phasendiagramme von kristallisierbaren Polymeren und Wasser unter räumlich eingeschränkten Bedingungen. Selbst ausgerichtetes Aluminiumoxid (AAO) mit Porengrößen im Bereich von 25 bis 400 nm wurden als räumliche Einschränkung sowohl für Polymere als auch für Wasser gewählt. Die AAO Nanoporen sind zylindrisch und parallel ausgerichtet. Außerdem besitzen sie eine gleichmäßige Porenlänge und einen gleichmäßigen Durchmesser. Daher eignen sie sich als Modelsystem um Kristallisationsprozesse unter wohldefinierter räumlicher Einschränkung zu untersuchen.rnEs wurden verschiedene halbkristalline Polymere verwendet, darunter Poly(ethylenoxid), Poly(ɛ-Caprolacton) und Diblockcopolymere aus PEO-b-PCL. Der Einfluss der Porengröße auf die Nukleation wurde aus verschiedenen Gesichtspunkten untersucht: (i) Einfluss auf den Nukleationmechanismus (heterogene gegenüber homogener Nukleation), (ii) Kristallorientierung und Kristallinitätsgrad und (iii) Zusammenhang zwischen Kristallisationstemperatur bei homogener Kristallisation und Glasübergangstemperatur.rnEs konnte gezeigt werden, dass die Kristallisation von Polymeren in Bulk durch heterogene Nukleation induziert wird und das die Kristallisation in kleinen Poren hauptsächlich über homogene Nukleation mit reduzierter und einstellbarer Kristallinität verläuft und eine hohe Kristallorientierung aufweist. Durch die AAOs konnte außerdem die kritische Keimgröße für die Kristallisation der Polymere abgeschätzt werden. Schließlich wurde der Einfluss der Polydispersität, von Oligomeren und anderen Zusatzstoffen auf den Nukleationsmechanismus untersucht.rn4rnDie Nukleation von Eis wurde in den selben AAOs untersucht und ein direkter Zusammenhang zwischen dem Nukleationstyp (heterogen bzw. homogen) und der gebildeten Eisphase konnte beobachtet werden. In größeren Poren verlief die Nukleation heterogen, wohingegen sie in kleineren Poren homogen verlief. Außerdem wurde eine Phasenumwandlung des Eises beobachtet. In den größeren Poren wurde hexagonales Eis nachgewiesen und unter einer Porengröße von 35 nm trat hauptsächlich kubisches Eis auf. Nennenswerter Weise handelte es sich bei dem kubischem Eis nicht um eine metastabile sondern eine stabile Phase. Abschließend wird ein Phasendiagramm für räumlich eingeschränktes Wasser vorgeschlagen. Dieses Phasendiagramm kann für technische Anwendungen von Bedeutung sein, so z.B. für Baumaterial wie Zement. Als weiteres Beispiel könnten AAOs, die die heterogene Nukleation unterdrücken (Porendurchmesser ≤ 35 nm) als Filter für Reinstwasser zum Einsatz kommen.rnNun zur Anfangs gestellten Frage: Wie unterschiedlich sind Wasser und Polymerkristallisation voneinander unter räumlicher Einschränkung? Durch Vergleich der beiden Phasendiagramme kommen wir zu dem Schluss, dass beide nicht fundamental verschieden sind. Dies ist zunächst verwunderlich, da Wasser ein kleines Molekül ist und wesentlich kleiner als die kleinste Porengröße ist. Wasser verfügt allerdings über starke Wasserstoffbrückenbindungen und verhält sich daher wie ein Polymer. Daher auch der Name „Polywasser“.
Resumo:
Flüssigkristalline Elastomere (LCE) zeigen eine reversible Kontraktion und werden in der Literatur auch als „künstliche Muskeln“ bezeichnet. In dieser Arbeit werden sie mit einem integrierten Heizer versehen, um eine schnelle und präzise Ansteuerung zu ermöglichen. Anschließend werden diese als Aktoren zur Realisierung eines technischen Nachbaus des menschlichen Auges verwendet. rnDas einzigartige Verhalten der flüssigkristallinen Elastomere beruht auf der Kombination der Entropie Elastizität des Elastomers mit der Selbstorganisation der flüssigkristallinen Einheiten (Mesogene). Diese beiden Eigenschaften ermöglichen eine reversible, makroskopische Verformung beim Phasenübergang des Flüssigkristalls in die isotrope Phase. Hierbei ist es wichtig eine homogene Orientierung der Mesogene zu erzeugen, was in dieser Arbeit durch ein Magnetfeld erreicht wird. Da es sich um ein thermotropes flüssigkristallines Elastomer handelt, werden in dieser Arbeit zwei Ansätze vorgestellt, um den LCE intern zu heizen. Zum einen werden Kohlenstoffnanoröhren integriert, um diese über Strahlung oder Strom zu heizen und zum anderen wird ein flexibler Heizdraht integriert, welcher ebenfalls über Strom geheizt wird. rnUm den technischen Nachbau des menschlichen Auges zu realisieren, ist die Herstellung einer flüssigkristallinen Iris gezeigt. Hierzu wird ein radiales Magnetfeld aufgebaut, welches eine radiale Orientierung des Mesogene ermöglicht, wodurch wiederum eine radiale Kontraktion ermöglicht wird. Außerdem sind zwei Konzepte vorgestellt, um eine Elastomer Linse zu verformen. Zum einen wird diese mit einem ringförmigen LCE auseinandergezogen und somit abgeflacht. Zum anderen sind acht Aktoren über Anker an einer Linse angebracht, welche ebenfalls eine Vergrößerung der Linse bewirken. In beiden Fällen werden LCE mit dem zuvor präsentierten integrierten Heizdraht verwendet. Abschließend ist das Zusammensetzen des technische Nachbaus des menschlichen Auges dargestellt, sowie Aufnahmen, welche mit diesem erzeugt wurden.
Resumo:
Diese Arbeit beschreibt die Entwicklung, Konstruktion und Untersuchung eines Magnetometers zur exakten und präzisen Messung schwacher Magnetfelder. Diese Art von Magnetometer eignet sich zur Anwendung in physikalischen hochpräzisions Experimenten wie zum Beispiel der Suche nach dem elektrischen Dipolmomentrndes Neutrons. Die Messmethode beruht auf der gleichzeitigen Detektion der freien Spin Präzession Kern-Spin polarisierten 3He Gases durch mehrere optisch gepumpte Cäsium Magnetometer. Es wird gezeigt, dass Cäsium Magnetometer eine zuverlässige und vielseitige Methode zur Messung der 3He Larmor Frequenz und eine komfortable Alternative zur Benutzung von SQUIDs für diesen Zweck darstellen. Ein Prototyp dieses Magnetometers wurde gebaut und seine Funktion in der magnetisch abgeschirmten Messkabine der Physikalisch Technischen Bundesanstalt untersucht. Die Sensitivität des Magnetometers in Abhängigkeitrnvon der Messdauer wurde experimentell untersucht. Es wird gezeigt, dass für kurze Messperioden (< 500s) Cramér-Rao limitierte Messungen möglich sind während die Sensitivität bei längeren Messungen durch die Stabilität des angelegten Magnetfeldes limitiert ist. Messungen eines 1 muT Magnetfeldes mit einer relative Genauigkeit von besser als 5x10^(-8) in 100s werden präsentiert. Es wird gezeigt, dass die Messgenauigkeit des Magnetometers durch die Zahl der zur Detektion der 3He Spin Präzession eingesetzten Cäsium Magnetometer skaliert werden kann. Prinzipiell ist dadurch eine Anpassung der Messgenauigkeit an jegliche experimentellen Bedürfnisse möglich. Es wird eine gradiometrische Messmethode vorgestellt, die es erlaubt den Einfluss periodischerrnmagnetischer Störungen auf dieMessung zu unterdrücken. Der Zusammenhang zwischen der Sensitivität des kombinierten Magnetometers und den Betriebsparametern der Cäsium Magnetometer die zur Spin Detektion verwendet werden wird theoretisch untersucht und anwendungsspezifische Vor- und Nachteile verschiedener Betriebsartenwerden diskutiert. Diese Zusammenhänge werden in einer Formel zusammengefasst die es erlaubt, die erwartete Sensitivität des Magnetometers zu berechnen. Diese Vorhersagen befinden sich in perfekter Übereinstimmung mit den experimentellen Daten. Die intrinsische Sensitivität des Magnetometer Prototyps wird auf Basis dieser Formel theoretisch bestimmt. Ausserdem wird die erwartete Sensitivität für die Anwendung im Rahmen des Experiments der nächsten Generation zur Bestimmung des elektrischenrnDipolmoments des Neutrons am Paul Scherrer Institut abgeschätzt. Des weiteren wird eine bequeme experimentelle Methode zur Messung des Polarisationsgrades und des Rabi Flip-Winkels der 3He Kernspin Polarisation vorgestellt. Letztere Messung ist sehr wichtig für die Anwendung in hochpräzisions Experimenten.
Resumo:
Die Dissertation „Strategisches Innovationsmanagement von Buchverlagen im Kontext konvergierender Medienmärkte“ nimmt sich des Themengebiets der Innovation in Buchverlagen in Zeiten der Digitalisierung an. Grob gliedert die Arbeit sich in einen Theorieteil und einen Empirieteil. Den Einstieg in den Theorieteil bildet eine Einführung in die Themenstellung, in der das Erkenntnisinteresse anhand von vier forschungsleitenden Fragen eingegrenzt wird: rn1) „Welche Anforderungen an die Innovationsfähigkeit von Verlagen ergeben sich aus aktuellen und antizipierten zukünftigen Entwicklungen, insbesondere der Medienkonvergenz?“rn2) „Welchen Beitrag kann strategisches Innovationsmanagement leisten, um diesen Anforderungen mit erfolgreichen Innovationen gerecht zu werden?“ rn3) „Welches sind die kritischen Faktoren für erfolgreiches Innovieren im Buchverlag?“ rn4) „Wie kann erfolgsförderndes Innovationsmanagement in Buchverlage implementiert werden?“rnrnDer Ausgangspunkt ist dabei die Darstellung aktueller Entwicklungen im Buchmarkt, die in ihrer Relevanz für das Thema bewertet werden. Dabei stehen solche Veränderungen im Mediennutzungsverhalten und dem veränderten Marktumfeld im Fokus, aus denen resultiert, dass Verlage sich nicht mehr nur auf ihre tradierten Kernkompetenzen verlassen können. Der Medienkonvergenz wird in dem Kontext als Suprakategorie eine herausgehobene Bedeutung zuerkannt. Am Ende des dritten Kapitels wird resümierend erörtert, woraus für Verlage heute die Notwendigkeit innovativen Handelns erwächst. Damit findet auch eine Überleitung in das folgende Kapitel über Innovation im Buchverlag statt, das inhaltlich den Kern des Theorieteils der Arbeit bildet.rnrnIm Kapitel Innovation im Buchverlag wird zuerst eine definitorische Eingrenzung des Innovationsbegriffs vorgenommen. Dabei wird eine Entscheidung für den mehrdimensionalen Ansatz nach Hauschildt und Salomo als definitorisches Grundraster getroffen. Darauf folgt eine Einführung in theoretische Grundbegriffe und Konzepte des Innovationsmanagements. Im Folgenden finden Erkenntnisse aus der Innovationsforschung Anwendung auf Spezifika in Buchverlagen, wobei zunächst Handlungsfelder identifiziert werden. Eine wesentliche Rolle im Argumentationsgang der Arbeit spielen dann die Erfolgsfaktoren des Innovationsmanagements in Buchverlagen. Eine herausragende Stellung wird dabei dem Wissensmanagement zuerkannt. Es folgt darauf ein Unterkapitel über Innovationskooperation. Darin wird zunächst die strategische Relevanz von Kooperationen beleuchtet, wobei auch eine teils kritische Auseinandersetzung mit dem modernen Begriff der Open Innovation stattfindet. Dann wird dargestellt, wer sich als Kooperationspartner für Buchverlage eignet und welche Modi des kooperativen Innovierens existieren. Es folgen darauf Ausführungen zur Implementierung einer Innovationsstrategie, wobei sowohl aufbau- als auch ablauforganisatorische Aspekte zum Tragen kommen. Im Mittelpunkt steht dabei die Darstellung des Stage-Gate-Modells als Ansatz für die Ablaufplanung von Innovationsprozessen in Buchverlagen. Wegen seiner guten Skalierbarkeit wird diesem Ansatz eine Eignung sowohl für kleine als auch mittelgroße und große Verlage zuerkannt. Den Abschluss des Kapitels über Innovation im Buchverlag bilden Betrachtungen über die rechtliche und technische Absicherung von Innovationen. rnrnDer empirische Teil der Arbeit wird eingeläutet mit einer Herleitung empirischer Fragestellungen. Dies geschieht zum einen auf der Grundlage einer Betrachtung, welche Erkenntnislücken die rein theoretische Auseinandersetzung mit dem Thema offengelassen hat. Die empirischen Fragestellungen bilden das Grundgerüst, auf dem im Folgenden die Ergebnisse einer qualitativen Maßnahme in Form von Interviews und einer quantitativen Maßnahme in Form einer Befragung per Fragebogen dargestellt werden. In der Auswertung der Ergebnisse werden dabei zunächst Hypothesen aus den Fallstudien gebildet, die auf Grundlage der Interviews entstanden sind. Diese Hypothesen werden anhand der Daten, die bei der Erhebung per Fragebogen gewonnen wurden, mit statistischen Methoden überprüft.rnrnDen Abschluss der Arbeit bildet eine Schlussbetrachtung, in der die gewonnenen Erkenntnisse verdichtet und vor dem Hintergrund der eingangs gestellten forschungsleitenden Fragen als Quintessens der Arbeit präsentiert werden. Zu jeder forschungsleitenden Frage findet dabei ein kurzes Resümee statt. Als größte Anforderung an die Innovationsfähigkeit von Verlagen wird darin erkannt, den Modus der eigenen Wertschöpfung kontinuierlich zu aktualisieren und an die dynamischen Veränderungen im Umfeld anzupassen. Dem strategischen Innovationsmanagement kommt dabei vor allem die Bedeutung zu, dass es ein konsistentes Handeln ermöglicht, das als Voraussetzung für die Planbarkeit von Innovationserfolgen gesehen wird. Auch erscheint es zunehmend wichtig, den Paradigmenwechsel weg vom Denken in Produktkategorien hin zu einem Denken in Problemlösungskategorien zu vollziehen, wobei ein strategisches Innovationsmanagement Buchverlagen hilfreich sein kann.rn