58 resultados para Dynamischer Baustellenplaner
Resumo:
ZUSAMMENFASSUNG: Das Phosphorylierungsmuster eines Proteins ist kein statischer Zustand, sondern vielmehr ein dynamischer Status, den es in der modernen funktionellen (Phospho-) Proteomik und Analytik abzubilden gilt. Klassischerweise erfolgt der Nachweis der Proteinphosphorylierung auf Peptid-Ebene mittels MS/MS Sequenzierung. Diese Standardmethode der shotgun Phosphoproteomanalytik vernachlässigt jedoch wegen den in LC MS/MS Analysen oftmals schwer detektierbaren Phosphopeptiden gerade den variablen und oftmals nur geringen Phosphorylierungsgrad vieler Phosphorylierungsstellen (P-Stellen). Mittels phosphospezifischer Anreicherungsstrategien und MS/MS Sequenzierung konnten an der Modellkinase PKA-Cα nach rekombinanter Expression in E. coli insgesamt acht P-Stellen identifiziert werden. Der Phosphorylierungsgrad wurde in Kooperation mit Dr. J. Seidler über quantitative Signalintensitätsmessungen bestimmt und zeigte eine nahezu vollständige Phosphorylierung von pS10, pS139, pT197 und pS338, während der Phosphorylierungsgrad für pS34, pS53, pS65 und pS259 zwischen <5 und 45 % variierte. Neben der Quantifizierung der P-Stellen wurde auch das Auftreten und die Verteilung definierter Phosphoformen der PKA-Cα untersucht und deren Abhängigkeit von der primären Aminosäureabfolge, dem Auftreten von zusätzlichen Modifikationen sowie den gewählten Expressions- und Reinigungsbedingungen aufgezeigt. Endogene, aus Säugergewebe isolierte PKA-Cα wies nur eine einzige Phosphoform mit den P-Stellen pT197 und pS338 auf. Auch in vitro autophosphorylierte rekombinante PKA-Cα, die zuvor dephosphoryliert worden war, wies eine zweifach modifizierte Phosphoform auf. Im Vergleich zum endogenen Protein ließ sich dieses Protein an S10 und S338 exzessiv phosphorylieren, wohingegen an T197 keine Autophosphorylierung nachzuweisen war. Das Ausbleiben weiterer Phosphorylierungen stellt in Frage, ob die Hyperphosphorylierung in E. coli ausschließlich auf Autophosphorylierungsprozessen beruht, was anhand einer nicht phosphorylierten, katalytisch inaktiven Variante von PKA-Cα (PKA-Cα K72H) vermutet wurde. Im Hinblick auf die funktionellen P-Stellen pT197 und pS338 erfordert diese Entdeckung sowie der unabhängige Nachweis, dass zellfrei exprimierte PKA-Cα nur an S338 phosphoryliert ist, eine Modifizierung des sequenziellen Vorhersagemodells, wonach die Phosphorylierung an T197 eine zwingende Voraussetzung für die nachfolgende Phosphorylierung an S338 ist. Ferner konnte über phosphomimetische Mutagenese die Funktionalität der Phosphorylierung an S53 innerhalb der glycinreichen Schleife der PKA-Cα und somit ein potenzieller Weg zur Regulation der enzymatischen Aktivität gezeigt werden. Ein weiterer möglicher upstream Regulator von PKA-Cα ist die Proteinphosphatase 5, die in der Lage war, die bislang als phosphatasestabil beschriebene P Stelle pT197 in vitro zu dephosphorylieren. Die vorliegende Arbeit zeigt, dass der Phosphorylierungszustand eines Proteins von zahlreichen internen und externen Faktoren abhängt – eine Tatsache, die gerade für rekombinante Proteine, insbesondere enzymatisch aktive Kinasen, oft vernachlässigt wurde. Daher müssen auch in der shotgun Phosphoproteomanalytik P-Stellen nicht mehr nur identifiziert und quantifiziert werden, sondern die resultierenden Proteinphosphoformen differenziert auch in ihrem physiologischen Kontext beschrieben werden.
Resumo:
Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.
Resumo:
Ein Drittel des weltweiten gesamten Energiebedarfs wird durch Gebäude verbraucht. Um diesen Energiebedarf teilweise zu decken, den erheblichen Energieverbrauch zu reduzieren und weiterhin andere Gebäudefunktionen beizubehalten, ist Gebäudeintegrierte Photovoltaik (BIPV) eine der am besten geeigneten Lösungen für die Gebäudenanwendung. Im Bezug auf eine Vielzahl von Gestalltungsmöglichkeiten, sind die Randbedingungen der BIPV-Anwendungen eindeutig anders im Vergleich zu Standard-PV-Anwendungen, insbesondere bezüglich der Betriebstemperatur. Bisher gab es nicht viele Informationen zu den relevanten thermischen Auswirkungen auf die entsprechenden elektrischen Eigenschaften zusammen mit thermischen und mechanischen relevanten Gebäudenfunktionen. Die meisten Hersteller übernehmen diese Eigenschaften von entsprechenden PV-Modulen und konventionellen Bauprodukten Normen, die zur ungenauen System- und Gebäudeplanungen führen. Deshalb ist die Untersuchung des thermischen Einflusses auf elektrische, thermische sowie mechanische Eigenschaften das Hauptziel der vorliegenden Arbeit. Zunächst wird das Temperatur-Model mit dem Power-Balance-Konzept erstellt. Unter Berücksichtigung der variablen Installationsmöglichkeiten und Konfigurationen des Moduls wird das Model auf Basis dynamischer und stationär Eigenschaften entwickelt. Im Hinblick auf die dynamische Simulation können der Energieertrag und Leistung zusammen mit der thermischen Gebäudesimulation in Echtzeit simuliert werden. Für stationäre Simulationen können die relevanten Gebäudefunktionen von BIPV-Modulen sowohl im Sommer als auch im Winter simuliert werden. Basierend auf unterschiedlichen thermischen und mechanischen Last-Szenarien wurde darüber hinaus das mechanische Model zusammen mit Variationen von Belastungsdauer, Montagesystem und Verkapselungsmaterialien entwickelt. Um die Temperatur- und Mechanik-Modelle zu validieren, wurden die verschiedenen Prüfeinrichtungen zusammen mit neuen Testmethoden entwickelt. Bei Verwendung der Prüfanlage „PV variable mounting system“ und „mechanical testing equipment“ werden zudem die verschiedenen Szenarien von Montagesystemen, Modul-Konfigurationen und mechanischen Belastungen emuliert. Mit der neuen Testmethode „back-bias current concept“ können zum einen die solare Einstrahlung und bestimmte Betriebstemperaturen eingestellt werden. Darüber hinaus wurden mit den eingangs erwähnten validierten Modellen das jeweilige elektrische, thermische und mechanische Verhalten auf andere Konfigurationen bewertet. Zum Abschluss wird die Anwendung von Software-Tools bei PV-Herstellern im Hinblick auf die entsprechenden Modellentwicklungen thematisiert.
Resumo:
Diese Arbeit weist Momentum-Renditen für europäische Aktien im Zeitraum von 1991 bis 2010 nach, die – je nach Top/Flop-Prozentsatz – vor Kosten zwischen 6 und 19% p.a. liegen. Gleichzeitig liegen mit hohen Standardabweichungen, negativen Schiefe-Werten und hohen Drawdowns drei wesentliche Risikofaktoren vor. Für die Kernuntersuchungen des Top/Flop-Wertes von 5% treten die höchsten Momentum-Renditen von mehr als 10% p.a. für Ranking-Perioden von 80 bis 100 und Holding-Perioden von 60 bis 90 Handelstagen auf. Grundsätzlich sind die extremsten Aktien der Ranking-Periode entscheidend für die Ausprägung des Momentum-Effekts. Gleichzeitig steigen mit zunehmender Eingrenzung des Top/Flop-Wertes die Risiken, was eine Erklärung hoher Momentum-Renditen aus Sicht der Risikoaversions-Theorie nahelegt. Auch die Berücksichtigung zusätzlicher Filterbedingungen (Gleitende Durchschnitte, Handelsvolumen, Low Volatility) ermöglicht leicht höhere Momentum-Renditen bei entsprechend höheren Risiken. Zwischen dem Momentum-Effekt und dem Auftreten von Kurslücken besteht dagegen kein klarer Zusammenhang. Für die praktische Anwendung sind Momentum-Strategien mit dynamischer Positionsverwaltung während der Haltedauer interessant. Untersucht wurden Strategien anhand der eigens programmierten Simulationsverfahren Stopout und Castout sowie eines kombinierten Verfahrens. Im Ergebnis sind – je nach Präferenz des Investors – das Castout- und das kombinierte Verfahren optimal. Für das Rebalancing der Portfolios empfiehlt es sich, zu den entsprechenden Terminen jeweils nur die Short-Seite auf den Startwert zurückzusetzen. Weiterhin zeigen die Untersuchungen, dass deutliche Long-Übergewichtungen bei Momentum-Strategien grundsätzlich von Vorteil sind. Potenzielle Verbesserungen der Ergebnisse können durch weitere Stopp-Abstände, eine Verringerung des Top/Flop-Wertes oder eine längere Ranking-Periode erzielt werden. Weiterhin sind für die Praxis Long-only-Strategien auf Basis von Doppelranking-Verfahren attraktiv, bei denen das Zweitranking nach Standardabweichung oder Rendite/Standardabweichungs-Ratio erfolgt.
Resumo:
Nanopartikel durch Strukturfixierung mizellarer Assoziate aus amphiphilen, endgruppenfunktionalisierten Diblockcopolymeren Zwei unterschiedliche Diblockcopolymersysteme mit Molmassen unterhalb von Mw = 10 000 g/mol wurden über anionische Polymerisation synthetisiert. Ein hetero-telecheles a,w-Poly(dimethylsiloxan)-b-Poly(ethylenoxid) (PDMS-PEO) Diblockcopolymer wurde mit einer Methacrylatendgruppe am PDMS und entweder einer Benzyl-, Hydroxy- oder Carboxylatendgruppe am PEO funktionalisiert. Ein Poly(butadien)-b-Poly(ethylenoxid) (PB-PEO) Diblockcopolymer wurde am PEO ebenfalls entweder mit einer Benzyl-, Hydroxy- oder Carboxylatendgruppe funktionalisiert. In selektiven Lösungsmitteln wie Wasser oder Methanol bilden beide Diblockcopolymersysteme supramolekulare Strukturen mit sphärischer, zylindrischer oder toroider Geometrie aus, die mit statischer und dynamischer Lichtstreuung in Lösung und mit Rasterkraftmikroskopie (AFM) und Transmissionselektronenmikroskopie (TEM) auf der Oberfläche untersucht wurden. Durch Zusatz eines Vernetzers und Initiators wurden die selbstassoziierenden Mizellen des PDMS-PEO Diblockcopolymers permanent durch radikalische Polymerisation mit UV-Licht fixiert. Mizellen des PB-PEO Diblockcopolymers wurden über Bestrahlung mit gamma-Strahlen permanent fixiert. Die Untersuchung der resultierenden Nanopartikel beider Diblockcopolymersysteme mit AFM und TEM zeigte, daß diese sogar in nicht selektiven Lösungsmitteln wie Tetrahydrofuran formstabil bleiben.
Resumo:
Diese Arbeit versteht sich als Beitrag zur Modellierung von Parallelrechnern. Ein solcher Parallelrechner kann als makroskopisches physikalisches dynamisches System mit einer sehr großen Anzahl von Freiheitsgraden, diskretem Zustandsraum und diskreter Zeit aufgefasst werden. Derartige Systeme werden von der Nichtlinearen Dynamik behandelt. Jede modellmäßige Behandlung eines Systems mit derart differenzierten Wechselwirkungen muss sich auf bestimmte, dem Ziel und Zweck der Untersuchung angepasste Aspekte beschränken. Dabei müssen sowohl allgemeine Vorstellungen als auch konkretes Wissen in ein mathematisch behandelbares Modell umgesetzt werden. Die in dieser Arbeit vorgestellten Beiträge zur Modellierung von Parallelrechnern dienen mehreren Zielen. Zum einen wird ein Modell kritisch untersucht und weiterentwickelt, das dazu dienen soll, die Ausführungszeit eines konkreten parallelen Programmes auf einem konkreten Parallelrechner brauchbar vorherzusagen. Zum anderen soll die Untersuchung eines konkreten Problems aus dem Bereich von Computerwissenschaft und -technik dazu genutzt werden, ein tieferes Verständnis für das zu modellierende System zu entwickeln und daraus neue Aspekte für die Modellierung dynamischer Systeme im Allgemeinen zu gewinnen. In dieser Arbeit wird gezeigt, dass es bei der Modellierung von Parallelrechnern notwendig ist, viele technische Konstruktionseigenschaften in das Modell zu integrieren. Diese aber folgen der sehr raschen Entwicklung der Technik auf diesem Gebiet. Damit Formulierung, Test und Validierung des Modells mit der Entwicklung des Objektbereiches Schritt halten können, müssen in Zukunft neue Modellierungsverfahren entwickelt und angewendet werden, die bei Änderungen im Objektbereich eine rasche Anpassung ermöglichen. Diese Untersuchung entspricht einem interdisziplinären Ansatz, in dem einerseits Inhalte der Computerwissenschaften und andererseits Grundmethoden der experimentellen Physik verwendet werden. Dazu wurden die Vorhersagen der abstrakten Modelle mit den experimentell gewonnen Messergebnissen von realen Systemen verglichen. Auf dieser Basis wird gezeigt, dass der hierarchische Aufbau des Speichers Einflüsse von mehreren Größenordnungen auf die Ausführungsgeschwindigkeit einer Anwendung ausüben kann. Das im Rahmen der vorliegenden Arbeit entwickelte Modell der einzelnen Rechenknoten eines Parallelrechners gibt diese Effekte innerhalb eines relativen Vorhersagefehlers von nur wenigen Prozent korrekt wieder.
Resumo:
Zusammenfassung:Das Ziel dieser Arbeit ist ein besseres Verständnis von der Art und Weise wie sich Formregelungsgefüge entwicklen. Auf dieser Basis wird der Nutzen von Formregelungsgefügen für die Geologie evaluiert. Untersuchungsmethoden sind Geländearbeit und -auswertung, numerische Simulationen und Analogexperimente. Untersuchungen an Formregelungsgefügen in Gesteinen zeigen, daß ein Formregelungsgefüge nur zu einem begrenzten Grad als Anzeiger für die Stärke der Verformung benutzt werden kann. Der angenommene Grund hierfür ist der Einfluß des Verhältnisses von ursprünglicher zu rekristallisierter Korngröße auf die Gefügeentwicklung und von der Art und Weise wie dynamische Rekristallisation ein Gefüge verändert. Um diese Beobachtung zu evaluieren, wurden verschiedene numerische Simulationen von dynamischer Rekristallisation durchgeführt. Ein neuer Deformationsapparat, mit dem generelle Fließregime modelliert werden können, wurde entwickelt. Die rheologischen Eigenschaften von Materialien, die für solche Experimente benutzt werden, wurden untersucht und diskutiert. Ergebnisse von Analogexperimenten zeigen, daß die Intensität eines Formregelungsgefüges positiv mit der Abnahme der 'kinematic vorticity number' und einem nicht-Newtonianischen, 'power law' Verhalten des Materixmaterials korreliert ist. Experimente, in denen die Formveränderung von viskosen Einschlüssen während der progressiven Verformung modelliert werden, zeigen, daß verschiedene Viskositätskontraste zwischen Matrix- und Einschlußmaterial in charakteristische Formgefüge resultieren.
Resumo:
Das Ziel der vorliegenden Arbeit ist die Untersuchung der räumlichen und zeitlichen Aspekte der heterogenen Dynamik in Modellglasbildnern. Dabei wird vor allem die langsame alpha-Relaxationsdynamik oberhalb des Glasüberganges Tg untersucht. Die nukleare Magnetresonanz zeigt ihre einmalige Vielseitigkeit bei der Untersuchung molekularer Dynamik, wenn die angewandten Techniken und Experimente durch Simulationen unterstützt werden. Die räumliche Aspekt dynamischer Heterogenitäten wird untersucht durch ein reduziertes vierdimensionales Spindiffusionsexperiment (4D3CP), ein Experiment, das Reorientierungsraten örtlich korreliert. Eine Simulation dieses Experimentes an einem System harter Kugeln liefert wertvolle Informationen über die Auswertemethode des 4D3CP Experiments. Glycerol und o-terphenyl werden durch das 4D3CP Experiment untersucht. Die erhaltenen Resultate werden mit bereits publizierten Daten des polymeren Glasbildners PVAc verglichen. Während PVAc und o-terphenyl eine Längenskale von 3.7 nm bzw. 2.9 nm aufweisen, ist die Längenskale von Glycerol signifikant kleiner bei 1.1 nm. Ein neues Experiment, welches sensitiv auf Translationsbewegung reagiert, wird vorgestellt. Durch Verwendung eines pi-Impulszuges kann eine separate Evolution unter dem Hamiltonian der dipolaren Kopplung und der chemischen Verschiebungsanisotropie erreicht werden.
Resumo:
Im ersten Teil 'Analyse der Grundlagen' der Dissertation 'Aspekte der Modellbildung: Konzepte und Anwendung in der Atmungsphysiologie' werden die Grundlagen zur Verfügung gestellt. Ausgehend von der Definition der modularer dynamischer Systeme im Kapitel 1 werden Grundbegriffe zu Modellen, Simulation und Modellentwicklung (Kapitel 2) dargelegt und schließlich folgt ein Kapitel über Netzmodelle. Im zweiten Teil wird 'der Prozess der Operationalisierung' untersucht. Im Kapitel 4 wird mit 'dem Koordinatensystem der Modellbildung' ein allgemeiner Lebenszyklus zur Modellbildung vorgestellt. Das Kapitel 5 zur 'Modellentwicklung' steht im Zentrum der Arbeit, wo eine generische Struktur für modulare Level-Raten-Modelle entwickelt wird. Das Kapitel endet mit einem Konzept zur Kalibrierung von Modellen, das auf Data Mining von Modelldaten basiert. Der Prozess der Operationalisierung endet mit der Validierung im sechsten Kapitel. 'Die Validierung am Beispiel der Atmungsphysiologie' im dritten Teil stellt die Anwendung der in beiden Teilen zuvor entwickelten Theorie dar. Zunächst wird das Projekt 'Evita-Weaning-System' vorgestellt, in dem die Arbeit entstanden ist. Ferner werden die notwendigen medizinischen Grundlagen der Atmungsphysiologie analysiert (Kapitel 7). Eine detaillierte Beschreibung des Modells der Atmungsphysiologie und der dabei entwickelten Algorithmen folgt im achten Kapitel. Die Arbeit schließt mit einem Kapitel zur Validierung des physiologischen Modells.
Resumo:
Sowohl die Komplexierung von Polyelektrolyten mit anorganischen Salzen, als auch die mit entgegengesetzt geladenen Polymeren wurde von vielen Autoren bereits intensiv untersucht. Doch gerade mit Molekülen die zwischen diesen beiden Extremen liegen, sollte es möglich sein, durch elektrostatische Wechselwirkungen gezielt nanometergroße Teilchen definierter Struktur herzustellen. Ziel dieser Arbeit war es deshalb, die Strukturbildung doppelthydrophiler Blockcopolymere mit mehrwertigen organischen Gegenionen zu untersuchen und insbesondere Parameter für die Bildung supramolekularer Strukturen in wässriger Lösung zu finden. Als Blockcopolymer wurde dabei Polyethylenoxid-b-methacrylsäure mittels anionischer Polymerisation hergestellt und mittels Gelpermeationschromatographie (GPC) und Kernresonanzspektroskopie (NMR)charakterisiert. Die Strukturbildung des Polyelektrolyten mit mehrwertigen organischen Gegenionen wurde in pH = 6- und pH = 7-Pufferlösung mit dynamischer und statischer Lichtstreuung, Kleinwinkelneutronenstreuung und Ultrazentrifugation untersucht. Mit Diaminobenzidin als Gegenion wurden dabei sphärische Komplexe mit einem hydrodynamischen Radius um 100 nm erhalten und mit Ultrazentrifugation der Anteil des Gegenions im Komplex quantifiziert. Die schlechte Löslichkeit des Diaminobenzidins in wässrigem Medium erschwerte allerdings die Interpretation der Ergebnisse. Trotzdem deuten diese darauf hin, dass keine Kolloidbildung des Diaminobenzidins, sondern eine Komplexierung der Einzelmoleküle mit dem Copolymer vorliegt. Um Probleme mit der Löslichkeit zu vermeiden, wurden schliesslich Polyamidoamin-Dendrimere als Gegenionen verwendet. Dabei wurde in pH = 6- und pH = 7-Pufferlösung für Dendrimere der Generation 4 mit steigender Gegenionenkonzentration ein kontinuierlicher Anstieg des hydrodynamischen Radius bis zu einer Größe von 70 nm gefunden. Mit Kleinwinkelneutronenstreuung konnte eine ellipsoidale Struktur dieser Komplexe beobachtet werden. Auch die Größe der Gegenionen spielt für die Bildung supramolekularer Aggregate eine Rolle. So zeigte sich, dass für Polyamidoamin-Dendrimere der Generation 2, analog zu denen der Generation 4, ein Anstieg des hydrodynamischen Radius mit steigender Gegenionenkonzentration zu beobachten ist. Für Generation 0-Dendrimere hingegen wurde ein umgekehrter Verlauf beobachtet, welcher dem für Diaminobenzidin gleicht. Somit kann man annehmen, dass die Aggregation mit kleinen Molekülen zu einer anderen Struktur der Komplexe führt, als die mit größeren Molekülen.
Resumo:
Die Photoemissions-Elektronenmikroskopie ist eine hervorragend geeignete Methode zur Untersuchung dynamischer Vorgänge auf realen polykristallinen Oberflächen im sub-μm Bereich. Bei der Anwendung auf Adsorbatsysteme lassen sich geringe Bedeckungsunterschiede, sowie Adsorbatstrukturen und -phasen unterscheiden. Die Methode erlaubt dabei ein breites Anwendungsspektrum über weite Temperaturbereiche und Systeme unterschiedlichster Bindungsenergie. Bei der Chemisorption von Sauerstoff auf polykristallinen Metallen wird unterschiedliches Aufwachsverhalten in den Helligkeitswerten im Mikroskopbild widergespiegelt. Bei Kupferproben zeigen Oberflächen mit unterschiedlicher kristalliner Richtung aufgrund der Symmetrie des fcc-Gitters ein ähnliches Verhalten. Das hexagonale Gitter des Titans zeigt dagegen große Unterschiede im Adsorptionsverhalten in Abhängigkeit der kristallinen Richtung. Diese Unterschiede konnten auf verschiedene Haftkoeffizienten und Oxidationsstufen der Metalle zurückgeführt werden. In einem Modell zur Photostromanalyse konnte beim Kupfer der Übergang von verschiedenen Überstrukturen bei wachsender Bedeckung gezeigt und die Übergänge ermittelt werden.. Auf den Titanoberflächen wurde so das Wachstum der Oxide TiO, TiO2 und Ti2O3 unterschieden und die Übergänge des unterschiedlichen Wachstums ermittelt. Bei der thermischen Desorption der Schichten konnten unterschiedliche Haftkoeffizient auf einzelnen Kristalliten qualitativ gezeigt werden. Diese erstmalig eingesetzte Analysemethode weist Ähnlichkeiten zur Thermo-Desorptions-Spektroskopie (TDS) auf, zeigt jedoch ortsaufgelöst lokale Unterschiede auf polykristallinen Oberflächen. Bei thermisch gestützten Oberflächenreaktionen ließen sich die Reaktionskeime deutlich identifizieren und mit einer Grauwertanalyse konnte die Oxidation der karbidischen Lagen zu Kohlenmonoxid und die Metalloxidation unterschieden werden. Dabei konnte gezeigt werden, daß die Reaktionskeime nur an Plattengrenzen auftreten, nicht jedoch auf der Oberfläche. Durch die Aufrauhung der Plattengrenzen mit zunehmender Reaktionsdauer nimmt die Zahl der Reaktionskeime kontinuierlich zu, die laterale Ausdehnung der Einzelreaktionen bleibt aber konstant. Bei der Physisorption von Xenon auf Graphit wurde erstmals für die Photoemissionsmikroskopie die resonanten Anregung ausgenutzt. Die verschiedenen Phasen des Adsorbats können dabei deutlich unterschieden werden; bei niedrigen Temperaturen (40K) findet ein gleichmäßiges Wachstum auf der gesamten Oberfläche statt, bei höheren Temperaturen von 60-65K ist dagegen ein Inselwachstum in verschiedenen Phasen zu beobachten. Die zeitliche Entwicklung des Wachstums, die örtliche Lage der Phasen und die Phasenübergänge (gas, fest inkommensurabel, fest kommensurabel) konnten bestimmt werden. Bei der Desorption der Schichten konnten die einzelnen Phasen ebenfalls getrennt werden und das unterschiedliche Desorptionsverhalten sowie die Phasenübergänge selber verifiziert werden.
Resumo:
Im Rahmen dieser Arbeit wurde die zeitaufgelöste Photoemissions Elektronenmikroskopie (TR-PEEM) für die in-situ Untersuchung ultraschneller dynamischer Prozesse in dünnen mikrostrukturierten magnetischen Schichten während eines rasch verändernden externen Magnetfelds entwickelt. Das Experiment basiert auf der Nutzung des XMCD-Kontrasts (X-ray magnetic circular dichroism) mit Hilfe des zirkularpolarisierten Lichts von Synchrotronstrahlungsquellen (Elektronenspeicherringen BESSY II (Berlin) und ESRF (Grenoble)) für die dynamische Darstellung der magnetischen Domänen während ultraschneller Magnetisierungsvorgänge. Die hier entwickelte Methode wurde als erfolgreiche Kombination aus einer hohen Orts- und Zeitauflösung (weniger als 55 nm bzw. 15 ps) realisiert. Mit der hier beschriebenen Methode konnte nachgewiesen werden, dass die Magnetisierungsdynamik in großen Permalloy-Mikrostrukturen (40 µm x 80 µm und 20 µm x 80 µm, 40 nm dick) durch inkohärente Drehung der Magnetisierung und mit der Bildung von zeitlich abhängigen Übergangsdomänen einher geht, die den Ummagnetisierungsvorgang blockieren. Es wurden neue markante Differenzen zwischen der magnetischen Response einer vorgegebenen Dünnfilm-Mikrostruktur auf ein gepulstes externes Magnetfeld im Vergleich zu dem quasi-statischen Fall gefunden. Dies betrifft die Erscheinung von transienten raumzeitlichen Domänenmustern und besonderen Detailstrukturen in diesen Mustern, welche im quasi-statischen Fall nicht auftreten. Es wurden Beispiele solcher Domänenmuster in Permalloy-Mikrostrukturen verschiedener Formen und Größen untersucht und diskutiert. Insbesondere wurde die schnelle Verbreiterung von Domänenwänden infolge des präzessionalen Magnetisierungsvorgangs, die Ausbildung von transienten Domänenwänden und transienten Vortizes sowie die Erscheinung einer gestreiften Domänenphase aufgrund der inkohärenten Drehung der Magnetisierung diskutiert. Ferner wurde die Methode für die Untersuchung von stehenden Spinwellen auf ultradünnen (16 µm x 32 µm groß und 10 nm dick) Permalloy-Mikrostrukturen herangezogen. In einer zum periodischen Anregungsfeld senkrecht orientierten rechteckigen Mikrostruktur wurde ein induziertes magnetisches Moment gefunden. Dieses Phänomen wurde als „selbstfangende“ Spinwellenmode interpretiert. Es wurde gezeigt, dass sich eine erzwungene Normalmode durch Verschiebung einer 180°-Néelwand stabilisiert. Wird das System knapp unterhalb seiner Resonanzfrequenz angeregt, passt sich die Magnetisierungsverteilung derart an, dass ein möglichst großer Teil der durch das Anregungsfeld eingebrachten Energie im System verbleibt. Über einem bestimmten Grenzwert verursacht die Spinwellenmode nahe der Resonanzfrequenz eine effektive Kraft senkrecht zur 180°-Néel-Wand. Diese entsteht im Zentrum der Mikrostruktur und wird durch die streufeldinduzierte Kraft kompensiert. Als zusätzliche Möglichkeit wurden die Streufelder von magnetischen Mikrostrukturen während der dynamischen Prozesse quantitativ bestimmt und das genaue zeitliche Profil des Streufelds untersucht. Es wurde gezeigt, dass das zeitaufgelöste Photoemissions Elektronenmikroskop als ultraschnelles oberflächensensitives Magnetometer eingesetzt werden kann.
Resumo:
In dieser Arbeit werden nichtlineare Experimente zur Untersuchung der Dynamik in amorphen Festkörpern im Rahmen von Modellrechnungen diskutiert. Die Experimente beschäftigen sich mit der Frage nach dynamischen Heterogenitäten, worunter man das Vorliegen dynamischer Prozesse auf unterschiedlichen Zeitskalen versteht. Ist es möglich, gezielt 'langsame' oder 'schnelle' Dynamik in der Probe nachzuweisen, so ist die Existenz von dynamischen Heterogenitäten gezeigt. Ziel der Experimente sind deshalb sogenannte frequenzselektive Anregungen des Systems. In den beiden diskutierten Experimenten, zum einen nichtresonantes Lochbrennen, zum anderen ein ähnliches Experiment, das auf dem dynamischen Kerreffekt beruht, werden nichtlineare Antwortfunktionen gemessen. Um eine Probe in frequenzselektiver Weise anzuregen, werden zunächst einer oder mehrere Zyklen eines oszillierenden elektrischen Feldes an die Probe angelegt. Die Experimente werden zunächst im Terahertz-Bereich untersucht. Auf dieser Zeitskala findet man phonon-ähnliche kollektive Schwingungen in Gläsern. Diese Schwingungen werden durch (anharmonische) Brownsche Oszillatoren beschrieben. Der zentrale Befund der Modellrechnungen ist, daß eine frequenzselektive Anregung im Terahertz-Bereich möglich ist. Ein Nachweis dynamischer Heterogenitäten im Terahertz-Bereich ist somit durch beide Experimente möglich. Anschliessend wird das vorgestellte Kerreffekt-Experiment im Bereich wesentlich kleinerer Frequenzen diskutiert. Die langsame Reorientierungsdynamik in unterkühlten Flüssigkeiten wird dabei durch ein Rotationsdiffusionsmodell beschrieben. Es werden zum einen ein heterogenes und zum anderen ein homogenes Szenario zugrundegelegt. Es stellt sich heraus, daß wie beim Lochbrennen eine Unterscheidung durch das Experiment möglich ist. Das Kerreffekt-Experiment wird somit als eine relativ einfache Alternative zur Technik des nichtresonanten Lochbrennens vorgeschlagen.
Resumo:
In order to eliminate the de Gennes packing problem, which usually limits the attainable size of dendrimers, a new branching unit containing para-tetraphenylene ethynyl arms has been synthesized and utilized in the preparation of dendrimers of the Müllen type. The divergent principle of synthesis, based on the Dilthey reaction, could be carried up to sixth generation which contains 2776 benzene rings and possesses a diameter in the 27 nm range ("exploded dendrimer"). Monodispersity and dimensions of this and the lower generation species have been studied by MALDI-TOF MS (including the very recent superconducting tunnel junction detector), by size-exclusion chromatography, dynamic light scattering, transmission electron microscopy, and atomic force microscopy. Interesting features, apart from the huge dimension, are the low density and high porosity of these giant molecules which cause extensive aggregation in the gas phase, flattening on solid support (AFM) and the ready incorporation of guest molecules in the condensed phase. Since the synthesis of the para-tetraphenylene arms is quite elaborate, similar dendrimers containing para-terphenylene arms have been prepared; they are accessible more economically ("semi-exploded dendrimers"). It has been shown that they in several aspects mimic the features of the "exploded dendrimers". In order to take advantage of the presence of large internal cavities in this dendrimer type, dendrons containing -C≡C- triple bonds have also been incorporated. Surprisingly, they are readily hydrogenated under the condition of heterogeneous catalysis (Pd/C) which demonstrates the large size of the cavities. As revealed by a quartz microbalance study the post-hydrogenation dendrimers are less prone to incorporate guest molecules than before hydrogenation. Obviously, the more flexible nature of the former reduces porosity, it also leads to significant shrinkage. An interesting perspective is the use of homogeneous hydrogenation catalysts of variable size with the aim of determining the dimension of internal free space.
Resumo:
Die zuverlässige Berechnung von quantitativen Parametern der Lungenventilation ist für ein Verständnis des Verhaltens der Lunge und insbesondere für die Diagnostik von Lungenerkrankungen von großer Bedeutung. Nur durch quantitative Parameter sind verlässliche und reproduzierbare diagnostische Aussagen über den Gesundheitszustand der Lunge möglich. Im Rahmen dieser Arbeit wurden neue quantitative Verfahren zur Erfassung der Lungenventilation basierend auf der dynamischen Computer- (CT) und Magnetresonanztomographie (MRT) entwickelt. Im ersten Teil dieser Arbeit wurde die Frage untersucht, ob das Aufblähen der Lunge in gesunden Schweinelungen und Lungen mit Akutem Lungenversagen (ARDS) durch einzelne, diskrete Zeitkonstanten beschrieben werden kann, oder ob kontinuierliche Verteilungen von Zeitkonstanten die Realität besser beschreiben. Hierzu wurden Serien dynamischer CT-Aufnahmen während definierter Beatmungsmanöver (Drucksprünge) aufgenommen und anschließend aus den Messdaten mittels inverser Laplace-Transformation die zugehörigen Verteilungen der Zeitkonstanten berechnet. Um die Qualität der Ergebnisse zu analysieren, wurde der Algorithmus im Rahmen von Simulationsrechnungen systematisch untersucht und anschließend in-vivo an gesunden und ARDS-Schweinelungen eingesetzt. Während in den gesunden Lungen mono- und biexponentielle Verteilungen bestimmt wurden, waren in den ARDS-Lungen Verteilungen um zwei dominante Zeitkonstanten notwendig, um die gemessenen Daten auf der Basis des verwendeten Modells verlässlich zu beschreiben. Es wurden sowohl diskrete als auch kontinuierliche Verteilungen gefunden. Die CT liefert Informationen über das solide Lungengewebe, während die MRT von hyperpolarisiertem 3He in der Lage ist, direkt das eingeatmete Gas abzubilden. Im zweiten Teil der Arbeit wurde zeitlich hochaufgelöst das Einströmen eines 3He-Bolus in die Lunge erfasst. Über eine Entfaltungsanalyse wurde anschließend das Einströmverhalten unter Idealbedingungen (unendlich kurzer 3He-Bolus), also die Gewebeantwortfunktion, berechnet und so eine Messtechnik-unabhängige Erfassung des Einströmens von 3He in die Lunge ermöglicht. Zentrale Fragestellung war hier, wie schnell das Gas in die Lunge einströmt. Im Rahmen von Simulationsrechnungen wurde das Verhalten eines Entfaltungsalgorithmus (basierend auf B-Spline Repräsentationen) systematisch analysiert. Zusätzlich wurde ein iteratives Entfaltungsverfahren eingesetzt. Aus zeitlich hochaufgelösten Messungen (7ms) an einer gesunden und einer ARDS-Schweinelunge konnte erstmals nachgewiesen werden, dass das Einströmen in-vivo in weniger als 0,1s geschieht. Die Ergebnisse zeigen Zeitkonstanten im Bereich von 4ms–50ms, wobei zwischen der gesunden Lungen und der ARDS-Lunge deutliche Unterschiede beobachtet wurden. Zusammenfassend ermöglichen daher die in dieser Arbeit vorgestellten Algorithmen eine objektivere Bestimmung quantitativer Parameter der Lungenventilation. Dies ist für die eindeutige Beschreibung ventilatorischer Vorgänge in der Lunge und somit für die Lungendiagnostik unerlässlich. Damit stehen quantitative Methoden für die Lungenfunktionsdiagnostik zur Verfügung, deren diagnostische Relevanz im Rahmen wissenschaftlicher und klinischer Studien untersucht werden kann.