27 resultados para dynamisch


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Wälder übernehmen wichtige und vielfältige Funktionen für die Gesellschaft: Sie versorgen uns nicht nur mit Holz, sie schützen auch vor Naturgefahren und säubern Wasser und Luft. Fast die Hälfte der in der Schweiz vorkommenden Tiere und Pflanzen ist auf den Wald als Lebensraum angewiesen. Der Wald – oft Sinnbild von Natur – prägt in seiner Mannigfaltigkeit die Landschaft, in der wir leben. Während auf unserem Planeten täglich grosse Waldflächen verschwinden, breitet sich der Wald im Alpenraum aus und verändert die alpine Landschaft, so auch in der Region unseres Welterbes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Hochfeste Faserseile sind aufgrund ihrer hohen spezifischen Festigkeit prädestiniert für dynamische Anwendungen in der Fördertechnik. Der Kenntnisstand über die Zeitfestigkeit zugehöriger Endverbindungen zur Krafteinleitung ist jedoch unzureichend. Gegenstand der vorgelegten Arbeit ist die Entwicklung einer für die Anwendung von hochfesten Faserseilen geeigneten Prüfvorschrift sowie die vergleichende Untersuchung bekannter Endverbindungen für hochfeste Faserseile im Zugschwellversuch.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In dieser Arbeit werden dynamisch adaptive Mehrgitterverfahren parallelisiert. Bei dynamisch adaptiven Mehrgitterverfahren wird ein Gebiet mit einem Gitter überdeckt, und auf diesem Gitter wird gerechnet, indem Gitterpunkte in der Umgebung herangezogen werden, um den Wert des nächsten Zeitpunktes zu bestimmen. Dann werden gröbere und feinere Gitter erzeugt und verwendet, wobei die feineren Gitter sich auf Teilgebiete konzentrieren. Diese Teilgebiete ändern sich im Verlauf der Zeit. Durch die Verwendung der zusätzlichen Gitter werden die numerischen Eigenschaften verbessert. Die Parallelisierung solcher Verfahren geschieht in der Regel durch Bisektion. In der vorliegenden Arbeit wird die Umverteilung der Gebiete realisiert, indem Mengen von einzelnen Gitterpunkten verschickt werden. Das ist ein Scheduling-Verfahren. Die Mehrgitterstrukturen sind so aufgebaut, dass fast beliebige Gitterpunktverteilungen auf den Gitterebenen vorliegen können. Die Strukturen werden einmal erzeugt, und nur bei Bedarf geändert, sodass keine Speicherallokationen während der Iterationen nötig sind. Neben dem Gitter sind zusätzliche Strukturen, wie zum Beispiel die Randstrukturen, erforderlich. Eine Struktur Farbenfeld verzeichnet, auf welchem Kern sich ein Außenrandpunkt befindet. In der parallelen adaptiven Verfeinerung werden für einzelne durch ein Entscheidungskriterium ausgewählte Gitterpunkte 5 x 5 Punktüberdeckungen vorgenommen. Dazu werden die verfügbaren Entscheidungsinformationen zur Bestimmung von komplexeren Strukturen herangezogen. Damit muss das Verfeinerungsgitter nicht komplett abgebaut und dann wieder aufgebaut werden, sondern nur die Änderungen am Gitter sind vorzunehmen. Das spart viel Berechnungszeit. Der letzte Schritt besteht darin, den Lastausgleich durchzuführen. Zunächst werden die Lasttransferwerte bestimmt, die angeben, wie viele Gitterpunkte von wo nach wo zu verschicken sind. Das geschieht mit Hilfe einer PLB genannten Methode bzw. einer Variante. PLB wurde bisher vor allem für kombinatorische Probleme eingesetzt. Dann erfolgt eine Auswahl der zu verschickenden Gitterpunkte mit einer Strategie, welche Punkte eines Kerns zu welchen Nachbarkernen transferiert werden sollen. Im letzten Schritt werden schließlich die ausgewählten Punkte migriert, wobei alle Gitterpunktstrukturen umgebaut werden und solche Informationen gepackt werden müssen, sodass ein Umbau seiner Gitterpunktstrukturen bei dem Empfänger möglich wird. Neben den Gitterpunktstrukturen müssen auch Strukturen für die parallele adaptive Verfeinerung verändert werden. Es muss ein Weiterverschicken von Gitterpunkten möglich sein, wenn über die Lastkanten in mehreren Runden Last verschickt wird. Während des Lastausgleichs wird noch Arbeit durch eine Struktur Zwischenkorrektur durchgeführt, die es ermöglicht, das Farbenfeld intakt zu halten, wenn benachbarte Gitterpunkte gleichzeitig verschickt werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vor dem Hintergund der Integration des wissensbasierten Managementsystems Precision Farming in den Ökologischen Landbau wurde die Umsetzung bestehender sowie neu zu entwickelnder Strategien evaluiert und diskutiert. Mit Blick auf eine im Precision Farming maßgebende kosteneffiziente Ertragserfassung der im Ökologischen Landbau flächenrelevanten Leguminosen-Grasgemenge wurden in zwei weiteren Beiträgen die Schätzgüten von Ultraschall- und Spektralsensorik in singulärer und kombinierter Anwendung analysiert. Das Ziel des Precision Farming, ein angepasstes Management bezogen auf die flächeninterne Variabilität der Standorte umzusetzen, und damit einer Reduzierung von Betriebsmitteln, Energie, Arbeit und Umwelteffekten bei gleichzeitiger Effektivitätssteigerung und einer ökonomischen Optimierung zu erreichen, deckt sich mit wesentlichen Bestrebungen im Ökogischen Landbau. Es sind vorrangig Maßnahmen zur Erfassung der Variabilität von Standortfaktoren wie Geländerelief, Bodenbeprobung und scheinbare elektrische Leitfähigkeit sowie der Ertragserfassung über Mähdrescher, die direkt im Ökologischen Landbau Anwendung finden können. Dagegen sind dynamisch angepasste Applikationen zur Düngung, im Pflanzenschutz und zur Beseitigung von Unkräutern aufgrund komplexer Interaktionen und eines eher passiven Charakters dieser Maßnahmen im Ökologischen Landbau nur bei Veränderung der Applikationsmodelle und unter Einbindung weiterer dynamischer Daten umsetzbar. Beispiele hiefür sind einzubeziehende Mineralisierungsprozesse im Boden und organischem Dünger bei der Düngemengenberechnung, schwer ortsspezifisch zuzuordnende präventive Maßnamen im Pflanzenschutz sowie Einflüsse auf bodenmikrobiologische Prozesse bei Hack- oder Striegelgängen. Die indirekten Regulationsmechanismen des Ökologischen Landbaus begrenzen daher die bisher eher auf eine direkte Wirkung ausgelegten dynamisch angepassten Applikationen des konventionellen Precision Farming. Ergänzend sind innovative neue Strategien denkbar, von denen die qualitätsbezogene Ernte, der Einsatz hochsensibler Sensoren zur Früherkennung von Pflanzenkrankheiten oder die gezielte teilflächen- und naturschutzorientierte Bewirtschaftung exemplarisch in der Arbeit vorgestellt werden. Für die häufig große Flächenanteile umfassenden Leguminosen-Grasgemenge wurden für eine kostengünstige und flexibel einsetzbare Ertragserfassung die Ultraschalldistanzmessung zur Charakterisierung der Bestandeshöhe sowie verschiedene spektrale Vegetationsindices als Schätzindikatoren analysiert. Die Vegetationsindices wurden aus hyperspektralen Daten nach publizierten Gleichungen errechnet sowie als „Normalized Difference Spectral Index“ (NDSI) stufenweise aus allen möglichen Wellenlängenkombinationen ermittelt. Die Analyse erfolgte für Ultraschall und Vegetationsindices in alleiniger und in kombinierter Anwendung, um mögliche kompensatorische Effekte zu nutzen. In alleiniger Anwendung erreichte die Ultraschallbestandeshöhe durchweg bessere Schätzgüten, als alle einzelnen Vegetationsindices. Bei den letztgenannten erreichten insbesondere auf Wasserabsorptionsbanden basierende Vegetationsindices eine höhere Schätzgenauigkeit als traditionelle Rot/Infrarot-Indices. Die Kombination beider Sensorda-ten ließ eine weitere Steigerung der Schätzgüte erkennen, insbesondere bei bestandesspezifischer Kalibration. Hierbei kompensieren die Vegetationsindices Fehlschätzungen der Höhenmessung bei diskontinuierlichen Bestandesdichtenänderungen entlang des Höhengradienten, wie sie beim Ährenschieben oder durch einzelne hochwachsende Arten verursacht werden. Die Kombination der Ultraschallbestandeshöhe mit Vegetationsindices weist das Potential zur Entwicklung kostengünstiger Ertragssensoren für Leguminosen-Grasgemenge auf. Weitere Untersuchungen mit hyperspektralen Vegetationsindices anderer Berechnungstrukturen sowie die Einbindung von mehr als zwei Wellenlängen sind hinsichtlich der Entwicklung höherer Schätzgüten notwendig. Ebenso gilt es, Kalibrierungen und Validationen der Sensorkombination im artenreichen Grasland durchzuführen. Die Ertragserfassung in den Leguminosen-Grasgemengen stellt einen wichtigen Beitrag zur Erstellung einer Ertragshistorie in den vielfältigen Fruchtfolgen des Ökologischen Landbaus dar und ermöglicht eine verbesserte Einschätzung von Produktionspotenzialen und Defizitarealen für ein standortangepasstes Management.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In der vorliegenden Arbeit wurde die Morphologie von zweiphasigen Polymermischungen unter Scherung in situ mit Hilfe einer Kombination aus optischer Scherzelle, Durchlichtmikroskop und computergestützten CCD-Kamera untersucht. Als Modellblends dienten die unverträglichen, bei Raumtemperatur flüssigen Polymersysteme Polyisobutylen (PIB)/Polydimethylsiloxan (PDMS) (I) und Poly(dimethyl-co-methylphenyl)siloxan/PDMS (II). Alle Komponenten verhalten sich bei den verwendeten Scherraten newtonisch.Eine der wichtigsten Einflussgrößen für die Blendmorphologie ist die Grenzflächenspannung gamma 12. Sie wurde für I und II mit Hilfe der Methode der Tropfenrelaxation (dynamisch) als Funktion der Zeit bestimmt. Diese Methode erlaubt die Messung von gamma 12 für Tropfen der Phase A in B sowie von Tropfen B in A. Bei der Methode des hängenden Tropfens (statisch) muss der Tropfen aus der Phase mit der höheren Dichte bestehen. Wo der Vergleich der beiden Methoden möglich ist, stimmen die Ergebnisse für beide Systeme sehr gut überein. Bei II sind die aus der Tropfenrelaxation erhaltenen gamma 12-Werte der beiden komplementären Zusammensetzungen im Rahmen des Fehlers gleich, bei I zeigt ein PIB-Tropfen in PDMS einen um 40 % niedrigeren Wert als ein PDMS-Tropfen in PIB, dies wird auf die Diffusion von kurzkettigen Anteilen des PDMS in die Grenzschicht zurückgeführt. Die Grenzflächenspannung hängt also unter Umständen auch bei binären Systemen deutlich von der Zusammensetzung ab.Für II wurde die Blendmorphologie über den gesamten Zusammensetzungsbereich untersucht. Die häufig beobachteten cokontinuierlichen Strukturen treten bei keiner Zusammensetzung auf. Die Phaseninversion erkennt man in einer sprunghaften Änderung der Tropfengröße zwischen phiPDMS <= 0,400 und 0,500; zudem lässt sich die Zeitabhängigkeit der Radien durch Auftragung gegen das Produkt aus der Deformation und dem Quadrat des Volumenbruchs der Tropfenphase für 0 <= phiPDMS <= 0,400 sowie 0,500 <= phiPDMS <= 1 normieren. Für I und II wurde die Morphologieentwicklung bei 25 °C nach Vorscherung bei 100 bzw. 50 s-1 und anschließendem Sprung der Scherrate auf deutlich niedrigere Werte als Funktion der Zeit verfolgt. Hierbei erhält man bei genügend langer Messdauer (mindestens 200 000-300 000 Schereinheiten) konstante Tropfengrößen. Zum einen handelt es sich dabei um pseudo-stationäre Werte, die nur durch Koaleszenz bestimmt sind, zum anderen um echte stationäre Radien, die durch gleichzeitig ablaufende Koaleszenz und Zerteilung entstehen. Für I liegen die stationären Mittelwerte auf der Zerteilungskurve, für II hingegen auf der Koaleszenzkurve.Der Einfluss eines grenzflächenwirksamen Additivs wurde anhand von I durch Zugabe des Blockcopolymer PIB-b-PDMS zu PIB untersucht. Der Vergleich des zeitlichen Verlaufs von gamma 12 mit der Morphologieentwicklung zeigt, dass das Additiv eine Stabilisierung der feinen Tropfen/Matrix-Struktur des Blends durch Hinderung der Koaleszenz und nicht durch Reduktion der Grenzflächenspannung bewirkt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gegenstand dieser Arbeit ist die Untersuchung der smektischen Phasen von Polysiloxanen mit flüssigkristallinen Seitengruppen (LC-Polysiloxane). Der erste Teil der vorliegenden Arbeit befasste sich mit der Herstellung verschiedener flüssigkristalliner ferroelektrischer Polysiloxane. Die Polymere wurden in Bezug auf das verwendete Polymerrückgrat (Homo- und Copolysiloxan) sowie durch den zusätzlichen Einbau von vernetzbaren Seitengruppen variiert. Im zweiten Teil der Arbeit wurden die Eigenschaften der smektischen Phasen der hergestellten Substanzen näher untersucht. Ein erster Untersuchungsgegenstand war das Dehnungsverhalten von freistehenden flüssigkristallinen Elastomerfilmen (LCE). Bei der Verwendung eines Polymers, in dem nur ein Teil des Polysiloxanrückgrats mit Seitengruppen substituiert ist, wird die uniaxiale Dehnung des Films parallel zu den smektischen Schichten durch eine gleichmäßige Kontraktion in der Filmebene und parallel zur Schichtnormalen ausgeglichen, was auf einen außergewöhnlich niedrigen smektischen Schichtkompressionsmodul zurückzuführen ist. Im Gegensatz dazu ist dieser Modul bei den Homopolymersystemen so groß, dass praktisch senkrecht zu den smektischen Schichten keine Kontraktion stattfindet. Ein zweiter Untersuchungsgegenstand der Netzwerkbildung bestand in der Bestimmung der dynamisch-mechanischen Eigenschaften der LC-Polysiloxane mittels eines Oszillationsrheometers. Hier erfolgten die Messungen von Speicher- und Verlustmodul in Abhängigkeit vom Polymerrückgrat und von der Vernetzung. Die unvernetzten Systeme zeigten in den smektischen Phasen (oberhalb Tg) noch – im wesentlichen – Festkörpereigenschaften (physikalische Vernetzung) mit einem dominierenden Speichermodul beim LC-Homopolysiloxan. Beim LC-Copolysiloxan haben beide Module eine gleiche Größenordnung. Am Phasenübergang in die isotrope Phase wurden beide Module absolut kleiner, der Verlustmodul aber relativ größer. In der isotropen Phase verhalten sich die LC-Polymere damit überwiegend wie viskose Schmelzen. Außerdem korrelierten die mittels DSC bestimmten Phasenübergangstemperaturen mit einer Änderung der dynamisch-mechanischen Eigenschaften. Nach der Vernetzung dominierte der Speichermodul sowohl beim LC-Homo- als auch beim LC-Copolysiloxan bis in die isotrope Phase, und es war aufgrund der Bildung einer festen Netzwerkstruktur keine Abhängigkeit der Module von Phasenübergängen mehr erkennbar. Als dritter Untersuchungsgegenstand wurde der Phasenübergang zwischen den beiden smektischen Phasen (SmC* nach SmA*) der flüssigkristallinen Polysiloxane näher behandelt. Als wichtigstes Ergebnis ist festzuhalten, dass die verdünnten LC-Polysiloxane an diesem Übergang fast keine Schichtdickenänderung aufweisen. Dazu wurde jeweils die röntgenographisch ermittelte Schichtdicke mit der aus den optischen Tiltwinkeln theoretisch berechneten Schichtdicke verglichen. Dadurch konnte gezeigt werden, dass sich die Phasenübergänge nach dem de Vries-Modell verhalten. Damit konnte zum ersten Mal an Polymersystemen ein de Vries-Verhalten nachgewiesen werden. Im Gegensatz dazu zeigte das Homopolysiloxan mit dem Dreiringmesogen beim Übergang von SmC* nach SmA* einen ausgeprägten Sprung in der Schichtdicke. Wie auch durch DSC-Messungen nachweisbar, lag ein Phasenübergang 1. Ordnung vor. Bei den LC-Copolysiloxanen liegt dagegen ein Phasenübergang 2. Ordnung vor. Schließlich wurde die Schichtdicke unter dem Einfluss der Vernetzung untersucht. Beim LC-Copolysiloxan mit dem Dreiringmesogen und einem Anteil an vernetzbaren Gruppen von 15 % wurde eine Stabilisierung der smektischen Phasen erreicht. Zum einen war die Änderung der Schichtdicke am SmC*-SmA*-Phasenübergang geringer im Vergleich zum unvernetzten System und zum anderen war noch 50 °C über der ursprünglichen Klärtemperatur eine smektische Schichtstruktur röntgenographisch nachzuweisen. Insgesamt ist es mit den verschiedenen Untersuchungsmethoden gelungen, einen systematischen Unterschied zwischen smektischen Homo- und Copolysiloxanen aufzuzeigen, der seinen Ursprung – aller Wahrscheinlichkeit nach – in der Mikrophasenseparation von Mesogenen und Polysiloxanketten findet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Dissertation befasst sich mit der Synthese, physikochemischen und polymerspezifischen Charakterisierung und insbesondere der impedanzspektroskopischen Untersuchung von sowohl neuartigen, solvensfreien lithiumionen- als auch protonenleitfähigen Polymermaterialien für potentielle Anwendungen in sekundären Lithiumionenbatterien bzw. in Hochtemperatur-Protonenaustauschmembran-Brennstoffzellen (engl.: proton exchange membrane fuel cell, auch: polymer electrolyte membrane fuel cell, PEMFC). Beiden Typen von ionenleitfähigen Membranen liegt das gängige Prinzip der chemischen Anbindung einer für den Ionentransport verantwortlichen Seitengruppe an eine geeignete Polymerhauptkette zugrunde („Entkopplung“; auch Immobilisierung), welcher hinsichtlich Glasübergangstemperatur (Tg), elektrochemischer und thermischer Stabilität (Td) eine dynamisch entkoppelte, aber nicht minder bedeutsame Rolle zukommt. Die Transportaktivierung erfolgt in beiden Fällen thermisch. Im Falle der Protonenleiter liegt die zusätzliche Intention darin, eine Alternative aufzuzeigen, in der die Polymerhauptkette gekoppelt direkt am Protonentransportmechanismus beteiligt ist, d.h., dass der translatorisch diffusive Ionentransport entlang der Hauptkette stattfindet und nicht zwischen benachbarten Seitenketten. Ein Hauptaugenmerk der Untersuchungen liegt sowohl bei den lithiumionen- als auch den protonenleitfähigen Polymermembranen auf temperaturabhängigen dynamischen Prozessen der jeweiligen Ionenspezies in der polymeren Matrix, was die Ionenleitfähigkeit selbst, Relaxationsphänomene, die translatorische Ionendiffusion und im Falle der Protonenleiter etwaige mesomere Grenzstrukturübergänge umfasst. Lithiumionenleiter: Poly(meth)acrylate mit (2-Oxo-1,3-dioxolan)resten (Cyclocarbonat-) in der Seitenkette unterschiedlicher Spacerlänge wurden synthetisiert und charakterisiert. Die Leitfähigkeit s(,T) erreicht bei Poly(2-oxo-[1,3]dioxolan-4-yl)methylacrylat (PDOA): Lithium-bis-trifluormethansulfonimid (LiTFSI) (10:3) ca. 10^-3,5 S cm^-1 bei 150 °C. Weichmachen (Dotieren) mit äquimolaren Mengen an Propylencarbonat (PC) bewirkt in allen Fällen einen enormen Anstieg der Leitfähigkeit. Die höchsten Leitfähigkeiten von Mischungen dieser Polymere mit LiTFSI (und LiBOB) werden nicht beim System mit der niedrigsten Tg gefunden. Auch dient Tg nicht als Referenztemperatur (Tref) nach Williams-Landel-Ferry (WLF), so dass eine WLF-Anpassung der Leitfähigkeitsdaten nur über einen modifizierten WLF-Algorithmus gelingt. Die ermittelten Tref liegen deutlich unterhalb von Tg bei Temperaturen, die charakteristisch für die Seitenkettenrelaxation sind („Einfrieren“). Dies legt nahe, dass der Relaxation der Seitenketten eine entscheidende Rolle im Li^+-Leitfähigkeitsmechanismus zukommt. Die Li^+-Überführungszahlen tLi^+ in diesen Systemen schwanken zwischen 0,13 (40 °C) und 0,55 (160 °C). Protonenleiter: Polymere mit Barbitursäure- bzw. Hypoxanthinresten in der Seitenkette und Polyalkylenbiguanide unterschiedlicher Spacerlänge wurden synthetisiert und charakterisiert. Die Leitfähigkeit s(,T) erreicht bei Poly(2,4,6(1H,3H,5H)-trioxopyrimidin-5-yl)methacrylat (PTPMA) maximal ca. 10^-4,4 S cm^-1 bei 140 °C. Höhere Leitfähigkeiten sind nur durch Mischen mit aprotischen Lösungsmitteln erreichbar. Die höchste Leitfähigkeit wird im Falle der Polyalkylenbiguanide bei Polyethylenbiguanid (PEB) erzielt. Sie erreicht 10^-2,4 S cm^-1 bei 190 °C. Die Aktivierungsenergien EA der Polyalkylenbiguanide liegen (jeweils unterhalb von Tg) zwischen ca. 3 – 6 kJ mol^-1. In allen beobachteten Fällen dient Tg als Tref, so dass eine konventionelle WLF-Behandlung möglich ist und davon auszugehen ist, dass die Leitfähigkeit mit dem freien Volumen Vf korreliert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Begriff "Bannerwolke" bezeichnet ein eindrucksvolles Phänomen aus dem Bereich der Gebirgsmeteorologie. Bannerwolken können gelegentlich im Hochgebirge im Bereich steiler Bergspitzen oder langgezogener Bergrücken, wie z.B. dem Matterhorn in den Schweizer Alpen oder dem Zugspitzgrat in den Bayrischen Alpen beobachtet werden. Der Begriff bezeichnet eine Banner- oder Fahnen-ähnliche Wolkenstruktur, welche an der windabgewandten Seite des Berges befestigt zu sein scheint, während die windzugewandte Seite vollkommen wolkenfrei ist. Bannerwolken fanden bislang, trotz ihres relativ häufigen Auftretens in der wissenschaftlichen Literatur kaum Beachtung. Entsprechend wenig ist über ihren Entstehungsmechanismus und insbesondere die relative Bedeutung dynamischer gegenüber thermodynamischer Prozesse bekannt. In der wissenschaftlichen Literatur wurden bislang 3 unterschiedliche Mechanismen postuliert, um die Entstehung von Bannerwolken zu erklären. Demnach entstehen Bannerwolken durch (a) den Bernoulli-Effekt, insbesondere durch die lokale adiabatische Kühlung hervorgerufen durch eine Druckabnahme entlang quasi-horizontal verlaufender, auf der windzugewandten Seite startender Trajektorien, (b) durch isobare Mischung bodennaher kälterer Luft mit wärmerer Luft aus höheren Schichten, oder (c) durch erzwungene Hebung im aufsteigenden Ast eines Leerotors. Ziel dieser Arbeit ist es, ein besseres physikalisches Verständnis für das Phänomen der Bannerwolke zu entwickeln. Das Hauptaugenmerk liegt auf dem dominierenden Entstehungsmechanismus, der relativen Bedeutung dynamischer und thermodynamischer Prozesse, sowie der Frage nach geeigneten meteorologischen Bedingungen. Zu diesem Zweck wurde ein neues Grobstruktursimulations (LES)-Modell entwickelt, welches geeignet ist turbulente, feuchte Strömungen in komplexem Terrain zu untersuchen. Das Modell baut auf einem bereits existierenden mesoskaligen (RANS) Modell auf. Im Rahmen dieser Arbeit wurde das neue Modell ausführlich gegen numerische Referenzlösungen und Windkanal-Daten verglichen. Die wesentlichen Ergebnisse werden diskutiert, um die Anwendbarkeit des Modells auf die vorliegende wissenschaftliche Fragestellung zu überprüfen und zu verdeutlichen. Die Strömung über eine idealisierte pyramidenförmige Bergspitze wurde für Froude-Zahlen Fr >> 1 sowohl auf Labor- als auch atmosphärischer Skala mit und ohne Berücksichtigung der Feuchtephysik untersucht. Die Simulationen zeigen, dass Bannerwolken ein primär dynamisches Phänomen darstellen. Sie entstehen im Lee steiler Bergspitzen durch dynamisch erzwungene Hebung. Die Simulationen bestätigen somit die Leerotor-Theorie. Aufgrund des stark asymmetrischen, Hindernis-induzierten Strömungsfeldes können Bannerwolken sogar im Falle horizontal homogener Anfangsbedingungen hinsichtlich Feuchte und Temperatur entstehen. Dies führte zu der neuen Erkenntnis, dass zusätzliche leeseitige Feuchtequellen, unterschiedliche Luftmassen in Luv und Lee, oder Strahlungseffekte keine notwendige Voraussetzung für die Entstehung einer Bannerwolke darstellen. Die Wahrscheinlichkeit der Bannerwolkenbildung steigt mit zunehmender Höhe und Steilheit des pyramidenförmigen Hindernisses und ist in erster Näherung unabhängig von dessen Orientierung zur Anströmung. Simulationen mit und ohne Berücksichtigung der Feuchtephysik machen deutlich, dass thermodynamische Prozesse (insbes. die Umsetzung latenter Wärme) für die Dynamik prototypischer (nicht-konvektiver) Bannerwolken zweitrangig ist. Die Verstärkung des aufsteigenden Astes im Lee und die resultierende Wolkenbildung, hervorgerufen durch die Freisetzung latenter Wärme, sind nahezu vernachlässigbar. Die Feuchtephysik induziert jedoch eine Dipol-ähnliche Struktur im Vertikalprofil der Brunt-Väisälä Frequenz, was zu einem moderaten Anstieg der leeseitigen Turbulenz führt. Es wird gezeigt, dass Gebirgswellen kein entscheidendes Ingredienz darstellen, um die Dynamik von Bannerwolken zu verstehen. Durch eine Verstärkung der Absinkbewegung im Lee, haben Gebirgswellen lediglich die Tendenz die horizontale Ausdehnung von Bannerwolken zu reduzieren. Bezüglich geeigneter meteorologischer Bedingungen zeigen die Simulationen, dass unter horizontal homogenen Anfangsbedingungen die äquivalentpotentielle Temperatur in der Anströmung mit der Höhe abnehmen muss. Es werden 3 notwendige und hinreichende Kriterien, basierend auf dynamischen und thermodynamischen Variablen vorgestellt, welche einen weiteren Einblick in geeignete meteorologische Bedingungen geben.