70 resultados para Flexibilität
Resumo:
In der vorliegenden Arbeit wird die Konzeption und Realisierung der Persistenz-, Verteilungs- und Versionierungsbibliothek CoObRA 2 vorgestellt. Es werden zunächst die Anforderungen an ein solches Rahmenwerk aufgenommen und vorhandene Technologien für dieses Anwendungsgebiet vorgestellt. Das in der neuen Bibliothek eingesetzte Verfahren setzt Änderungsprotokolle beziehungsweise -listen ein, um Persistenzdaten für Dokumente und Versionen zu definieren. Dieses Konzept wird dabei durch eine Abbildung auf Kontrukte aus der Graphentheorie gestützt, um die Semantik von Modell, Änderungen und deren Anwendung zu definieren. Bei der Umsetzung werden insbesondere das Design der Bibliothek und die Entscheidungen, die zu der gewählten Softwarearchitektur führten, eingehend erläutert. Dies ist zentraler Aspekt der Arbeit, da die Flexibilität des Rahmenwerks eine wichtige Anforderung darstellt. Abschließend werden die Einsatzmöglichkeiten an konkreten Beispielanwendungen erläutert und bereits gemachte Erfahrungen beim Einsatz in CASE-Tools, Forschungsanwendungen und Echtzeit-Simulationsumgebungen präsentiert.
Resumo:
Simulation hat sich in der Vergangenheit als unterstützendes Planungsinstrument und Prognosemethode zur Untersuchung von Materialflusssystemen in verschiedenen Branchen etabliert. Dafür werden neben Simulationswerkzeugen auch zunehmend Virtual Reality (VR), insbesondere mit dem Ansatz Digitale Fabrik, eingesetzt. Ein Materialflusssimulator, der für den VR–Einsatz geeignet ist,existiert noch nicht, so dass Anwender gegenwärtig mit verschiedenen Systemen arbeiten müssen, um Untersuchungen eines Simulationsmodells in einem VR–Umfeld wie beispielsweise in einem CAVE zu ermöglichen. Zeitlicher Aufwand ist dadurch vorprogrammiert und das Auftreten von Fehlern bei der Konvertierung des Simulationsmodells möglich. Da auch der hauseigene Materialflusssimulator SIMFLEX/3D nicht für beide Anwendungsgebiete genutzt werden kann und für einen solchen Einsatz mit sehr hohem Aufwand angepasst werden müsste, wurde stattdessen ein neues Simulationssystem entworfen. Das Simulationssystem wird in der vorliegenden Arbeit als ein interoperables und offenes System beschrieben, das über eine flexible Softwarearchitektur verfügt und in einem vernetzten Umfeld mit anderen Werkzeugen Daten austauschen kann. Die grundlegende Idee besteht darin, eine flexible Softwarearchitektur zu entwerfen, die zunächst interaktive und ereignisorientierte 3D–Simulation erlaubt, aber zusätzlich für andere Anwendungszwecke offen gehalten wird. Durch den offenen Ansatz können Erweiterungen, die in Form von Plugins entwickelt werden, mit geringem Aufwand in das System integriert werden, wodurch eine hohe Flexibilität des Systems erreicht wird. Für interoperable Zwecke werden Softwaremodule vorgestellt, die optional eingesetzt werden können und standardisierte Formate wie bspw. XML benutzen. Mit dem neuen Simulationssystem wird die Lücke zwischen Desktop– und VR–Einsatz geschlossen und aus diesem Grund der Zeitaufwand und Fehlerquellen reduziert. Darüber hinaus ermöglicht der offene Ansatz, das Simulationssystem rollen- und aufgabenspezifisch anzupassen, indem die erforderlichen Plugins bereitgestellt werden. Aus diesem Grund kann das Simulationssystem mit sehr geringem Aufwand um weitere Untersuchungsschwerpunkte wie beispielsweise Avatare ergänzt werden. Erste Untersuchungen in einem CAVE wurden erfolgreich durchgeführt. Für die Digitale Fabrik kann der Prototyp eingesetzt werden, um die Produktionsplanung mit Hilfe der Simulation und die Entwicklung mit Hilfe der entwickelten Viewer zu unterstützen. Letzteres ist möglich, da die Viewer zahlreiche CAD–Formate lesen und um weitere Formate ergänzt werden können. Das entwickelte System ist für den Einsatz in verschiedenen Prozessen einer Wertschöpfungskette geeignet,um es als Untersuchungs-, Kommunikations- und Steuerungswerkzeug einzusetzen.
Resumo:
Es wird der Frage nachgegangen, welchen Einfluss Beziehungskonzepte, also die kognitiven Repräsentationen von Paarbeziehungen, auf den Umgang mit begrenzten Bedürfnissen in Paarbeziehungen haben. Als begrenzte Bedürfnisse werden dabei Wünsche der Beziehungspartner verstanden, welche innerhalb des Beziehungsarrangements keine Erfüllung finden, das heißt, im raummetaphorischen Sinne auf Grenzen stoßen. In einem umfangreichen theoretischen Teil der Arbeit werden Untersuchungen zu Beziehungskonzepten vorgestellt. Es wird eine Arbeitsdefinition zu Beziehungskonzepten für die vorliegende Arbeit hergeleitet. Es wird die Determiniertheit von Beziehungskonzepten durch gesellschaftliche Wandlungsprozesse diskutiert. Des Weiteren wird eine Auswahl an Bedürfniskonzeptionen und –klassifikationen vorgestellt. Daraufhin wird der Begriff des Beziehungshandelns eingeführt, indem ein allgemeines Handlungsmodell vorgestellt und in Bezug zu Beziehungskonzepten gestellt wird. Des Weiteren werden die Rolle der Emotionen und der Aspekt der Emotionsregulation im Kontext von Beziehungshandeln diskutiert. Abschließend wird im theoretischen Teil der Arbeit der Einfluss von Beziehungskonzept und Beziehungshandeln auf die Beziehungsqualität erörtert. Der methodische Teil beschreibt die Empirie der vorliegenden Arbeit. Es wurden 12 Interviews geführt, teilweise leitfadenbasiert und teilweise narrationsgenerierend. Interviewt wurden 15 Personen im Alter von 21-75 Jahren, die alle in einer Beziehung leben. Die Interviews fanden entweder paarweise oder im Einzelsetting statt. Alle Interviews wurden gemäß der Grounded Theory-Methodik nach Strauss und Corbin (1996) ausgewertet. Die Ergebnisse werden in Form eines paradigmatischen Modells strukturiert dargestellt, in dessen Zentrum die raummetaphorische Kategorie „Beziehung als Raum“ steht. Paarbeziehung, räumlich betrachtet, öffnet den Blick auf zwei wesentliche Merkmale der individuellen Ausgestaltung von Beziehung und damit auch des spezifischen Umgangs mit partneradressierten Bedürfnissen: 1. Grenzen konstituieren den Beziehungsraum, der damit als begrenztes Phänomen zu verstehen ist. 2. Die Grenzen des Beziehungsraumes variieren in Eigenschaften wie der Bewusstheit, der expliziten vs. impliziten Thematisierung, der Weite vs. Enge, der Statik vs. Flexibilität. Sie bestimmen damit die Form und die Inhalte der jeweiligen Beziehung. Es wurden aus der Variation dieser Merkmale zwei prototypische Beziehungskonzeptionen herausgearbeitet, das „kulturell, verankerte Beziehungskonzept“ sowie das „alternative, freigesetzte Beziehungskonzept“. Beide Beziehungskonzeptionen werden entlang der Dimension eines Freiheitsgrade in Hinblick auf ihre Ziele, Grenzen und Rollen beschrieben und unterschieden und in der Disposition zu verschiedenen Strategien im Umgang mit begrenzten Bedürfnissen miteinander verglichen. Abschließend wird der Einfluss beider Konzeptionen und verwandter Handlungsstrategien auf die Beziehungsqualität dargestellt. In einem anschließenden Diskussionsteil werden die methodische Güte der Ergebnisse, die inhaltliche Güte der Ergebnisse sowie deren Anwendbarkeit diskutiert und ein Forschungsausblick geben.
Resumo:
English: The present thesis describes the synthesis of 1,1’-ferrocendiyl-based pyridylphosphine ligands, the exploration of their fundamental coordination chemistry and preliminary experiments with selected complexes aimed at potential applications. One main aspect is the synthesis of the bidentate ferrocene-based pyridylphosphine ligands 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene, 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene and 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. A specific feature of these ligands is the ball-bearing like flexibility of the ferrocenebased backbone. An additional flexibility element is the rotation around the C–C single bonds. Consequently, the donor atoms can realise a wide range of positions with respect to each other and are therefore able to adapt to the coordination requirements of different metal centres. The flexibility of the ligand also plays a role in another key aspect of this work, which concerns the coordination mode, i. e. bridging vs. chelating. In addition to the flexibility, also the position of the donor atoms to each other is important. This is largely affected by the position of the pyridyl nitrogen (pyrid-2-yl vs. pyrid-3-yl) and the methylen group in 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene. Another interesting point is the combination of a soft phosphorus donor atom with a harder nitrogen donor atom, according to the HSAB principle. This combination generates a unique binding profile, since the pi-acceptor character of the P site is able to stabilise a metal centre in a low oxidation state, while the nitrogen sigma-donor ability can make the metal more susceptible to oxidative addition reactions. A P,N-donor combination can afford hemilabile binding profiles, which would be ideal for catalysis. Beyond 1,2-substituted ferrocene derivatives, which are quite successful in catalytic applications, 1,1’-derivatives are rather underrepresented. While a low-yield synthetic pathway to 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene was already described in the literature [I. R. Butler, Organometallics 1992, 11, 74.], it was possible to find a new, improved and simplified synthetic pathway. Both other ligands were unknown prior to this work. Satisfactory results in the synthesis of 1-(Pyrid-3-yl)-1’-diphenylphosphinoferrocene could be achieved by working in analogy to the new synthetic procedure for 1-(Pyrid-2-yl)-1’-diphenylphosphinoferrocene. The synthesis of 1-[(Pyrid-2-yl)methyl]-1’-diphenylphosphinoferrocene has been handled by the group of Prof. Petr Stepnicka from Charles University, Prague, Czech Republic. The synthesis of tridentate ligands with an analogous heterodentate arrangement, was investigated briefly as a sideline of this study. The major part of this thesis deals with the fundamental coordination chemistry towards transition metals of the groups 10, 11 and 12. Due to the well-established catalytic properties of analogous palladium complexes, the coordination chemistry towards palladium (group 10) is of particular interest. The metals zinc and cadmium (group 12) are also of substantial importance because they are redox-inert in their divalent state. This is relevant in view of electrochemical investigations concerning the utilisation of the ligands as molecular redox sensors. Also mercury and the monovalent metals silver and gold (group 11) are included because of their rich coordination chemistry. It is essential to answer questions concerning aspects of the ligands’ coordination mode bearing in mind the HSAB principle.
Resumo:
In dieser Arbeit werden die sich abzeichnenden zukünftigen Möglichkeiten, Stärken und Schwächen der Kraft-Wärme-Kopplung (KWK) untersucht. Dies geschieht vor dem Hintergrund des Klimawandels, der Integration steigender Anteile Erneuerbarer Energien in die Stromerzeugung und unter Berücksichtigung der sich damit ergebenden Herausforderungen, eine sichere und nachhaltige Stromversorgung zu gestalten. Der Fokus liegt auf der Dieselmotor-KWK und der Nutzung nachwachsender Kraftstoffe. Es wird davon ausgegangen, dass der Übergang zu einer reinen Stromerzeugung aus Erneuerbaren Energiequellen in Deutschland unter erheblicher Einbindung des hohen Potentials der kostengünstigen, umweltfreundlichen, aber in der Leistung extrem fluktuierenden Windenergie erfolgen wird. Als dezentrales Integrationswerkzeug wurde die Kraft-Wärme-Kopplung mit Dieselmotoren untersucht. Sie entspricht aufgrund ihrer großen Flexibilität und ihrer hohen Wirkungsgrade mit vergleichsweise kleinen Leistungen sehr gut den Anforderungen der gleichzeitigen dezentralen Wärmenutzung. In der Dissertation werden die Randbedingungen der Dieselmotor-KWK untersucht und beschrieben. Darauf aufbauend werden unterschiedliche Modelle der Windintegration durch KWK erarbeitet und in diversen Variationen wird der Ausgleich der Stromerzeugung aus Windenergie durch KWK simuliert. Darüber hinaus werden dezentrale KWK-Anlagen hinsichtlich eines koordinierten gemeinsamen Betriebs und hinsichtlich der optimalen Auslegung für den Windenergieausgleich betrachtet. Es wird für den beschriebenen Kontext der Erneuerbaren Energien und der Kraft-Wärme-Kopplung das Thema „Umweltwirkungen“ diskutiert. Es wird dargelegt, dass die heute verwendeten Ansätze zur Bewertung der KWK zu einer Verzerrung der Ergebnisse führen. Demgegenüber wurde mit der so genannten Outputmethode eine Methode der Ökobilanzierung vorgestellt, die, im Gegensatz zu den anderen Methoden, keine verzerrenden Annahmen in die Wirkungsabschätzung aufnimmt und somit eine eindeutige und rein wissenschaftliche Auswertung bleibt. Hiermit ist die Grundlage für die Bewertung der unterschiedlichen Technologien und Szenarien sowie für die Einordnung der KWK in den Kontext der Energieerzeugung gegeben. Mit der Outputmethode wird u.a. rechnerisch bewiesen, dass die gekoppelte Strom- und Wärmeerzeugung in KWK-Anlagen tatsächlich die optimale Nutzung der regenerativen Kraftstoffe „Biogas“ und „Pflanzenöl“ im Hinblick auf Ressourceneinsatz, Treibhausgaseinsparung und Exergieerzeugung ist. Es wurde darüber hinaus die Frage untersucht woher die für die Stromerzeugung durch Dieselmotor-KWK-Anlagen notwendige Bioenergie genommen werden kann. Es ist erwiesen, dass die in Deutschland nutzbare landwirtschaftliche Fläche nur zur Deckung eines Teils der Stromerzeugung ausreichen würde. Einheimisches Biogas und nachhaltiges importiertes Pflanzenöl, das in hohem Maße auf degradierten Böden angebaut werden sollte, können die notwendige Brennstoffenergie liefern. Um im Ausland ausreichend Pflanzenöl herstellen zu können, wird eine landwirtschaftliche Fläche von 6 bis 12 Mio. ha benötigt. Das Ergebnis ist, dass ein voller Ausgleich von Windenergie-Restlast durch KWK mit Erneuerbaren Energieträgern sinnvoll und machbar ist! Dieses Wind-KWK-DSM-System sollte durch ein Stromnetz ergänzt sein, das Wasserkraftstrom für den Großteil der Regelenergieaufgaben nutzt, und das den großräumigen Ausgleich Erneuerbarer Energien in Europa und den Nachbarregionen ermöglicht.
Resumo:
We are currently at the cusp of a revolution in quantum technology that relies not just on the passive use of quantum effects, but on their active control. At the forefront of this revolution is the implementation of a quantum computer. Encoding information in quantum states as “qubits” allows to use entanglement and quantum superposition to perform calculations that are infeasible on classical computers. The fundamental challenge in the realization of quantum computers is to avoid decoherence – the loss of quantum properties – due to unwanted interaction with the environment. This thesis addresses the problem of implementing entangling two-qubit quantum gates that are robust with respect to both decoherence and classical noise. It covers three aspects: the use of efficient numerical tools for the simulation and optimal control of open and closed quantum systems, the role of advanced optimization functionals in facilitating robustness, and the application of these techniques to two of the leading implementations of quantum computation, trapped atoms and superconducting circuits. After a review of the theoretical and numerical foundations, the central part of the thesis starts with the idea of using ensemble optimization to achieve robustness with respect to both classical fluctuations in the system parameters, and decoherence. For the example of a controlled phasegate implemented with trapped Rydberg atoms, this approach is demonstrated to yield a gate that is at least one order of magnitude more robust than the best known analytic scheme. Moreover this robustness is maintained even for gate durations significantly shorter than those obtained in the analytic scheme. Superconducting circuits are a particularly promising architecture for the implementation of a quantum computer. Their flexibility is demonstrated by performing optimizations for both diagonal and non-diagonal quantum gates. In order to achieve robustness with respect to decoherence, it is essential to implement quantum gates in the shortest possible amount of time. This may be facilitated by using an optimization functional that targets an arbitrary perfect entangler, based on a geometric theory of two-qubit gates. For the example of superconducting qubits, it is shown that this approach leads to significantly shorter gate durations, higher fidelities, and faster convergence than the optimization towards specific two-qubit gates. Performing optimization in Liouville space in order to properly take into account decoherence poses significant numerical challenges, as the dimension scales quadratically compared to Hilbert space. However, it can be shown that for a unitary target, the optimization only requires propagation of at most three states, instead of a full basis of Liouville space. Both for the example of trapped Rydberg atoms, and for superconducting qubits, the successful optimization of quantum gates is demonstrated, at a significantly reduced numerical cost than was previously thought possible. Together, the results of this thesis point towards a comprehensive framework for the optimization of robust quantum gates, paving the way for the future realization of quantum computers.
Resumo:
Eine wesentliche Funktionalität bei der Verwendung semantischer Technologien besteht in dem als Reasoning bezeichneten Prozess des Ableitens von impliziten Fakten aus einer explizit gegebenen Wissensbasis. Der Vorgang des Reasonings stellt vor dem Hintergrund der stetig wachsenden Menge an (semantischen) Informationen zunehmend eine Herausforderung in Bezug auf die notwendigen Ressourcen sowie der Ausführungsgeschwindigkeit dar. Um diesen Herausforderungen zu begegnen, adressiert die vorliegende Arbeit das Reasoning durch eine massive Parallelisierung der zugrunde liegenden Algorithmen und der Einführung von Konzepten für eine ressourceneffiziente Ausführung. Diese Ziele werden unter Berücksichtigung der Verwendung eines regelbasierten Systems verfolgt, dass im Gegensatz zur Implementierung einer festen Semantik die Definition der anzuwendenden Ableitungsregeln während der Laufzeit erlaubt und so eine größere Flexibilität bei der Nutzung des Systems bietet. Ausgehend von einer Betrachtung der Grundlagen des Reasonings und den verwandten Arbeiten aus den Bereichen des parallelen sowie des regelbasierten Reasonings werden zunächst die Funktionsweise von Production Systems sowie die dazu bereits existierenden Ansätze für die Optimierung und im Speziellen der Parallelisierung betrachtet. Production Systems beschreiben die grundlegende Funktionalität der regelbasierten Verarbeitung und sind somit auch die Ausgangsbasis für den RETE-Algorithmus, der zur Erreichung der Zielsetzung der vorliegenden Arbeit parallelisiert und für die Ausführung auf Grafikprozessoren (GPUs) vorbereitet wird. Im Gegensatz zu bestehenden Ansätzen unterscheidet sich die Parallelisierung insbesondere durch die gewählte Granularität, die nicht durch die anzuwendenden Regeln, sondern von den Eingabedaten bestimmt wird und sich damit an der Zielarchitektur orientiert. Aufbauend auf dem Konzept der parallelen Ausführung des RETE-Algorithmus werden Methoden der Partitionierung und Verteilung der Arbeitslast eingeführt, die zusammen mit Konzepten der Datenkomprimierung sowie der Verteilung von Daten zwischen Haupt- und Festplattenspeicher ein Reasoning über Datensätze mit mehreren Milliarden Fakten auf einzelnen Rechnern erlauben. Eine Evaluation der eingeführten Konzepte durch eine prototypische Implementierung zeigt für die adressierten leichtgewichtigen Ontologiesprachen einerseits die Möglichkeit des Reasonings über eine Milliarde Fakten auf einem Laptop, was durch die Reduzierung des Speicherbedarfs um rund 90% ermöglicht wird. Andererseits kann der dabei erzielte Durchsatz mit aktuellen State of the Art Reasonern verglichen werden, die eine Vielzahl an Rechnern in einem Cluster verwenden.
Resumo:
Die lokale Anlagerung molekularer Substanzen auf Oberflächen ist technologisch von großem Interesse. Die Beeinflussung selbstassemblierender Materialien bietet dabei große Vorteile, da sie kostengünstig und großflächig angewendet werden kann. Untersuchungen einer solchen Beeinflussung mithilfe von magnetischen Feldern wurden bisher jedoch noch nicht durchgeführt. Ursache hierfür ist das, insbesondere bei der Verwendung von diamagnetischen Substanzen, geringe induzierte magnetische Moment und die daraus resultierenden geringen magnetischen Kräfte. In der vorliegenden Arbeit wurde untersucht, ob es möglich ist, die lokale Anlagerung von selbstassemblierenden, diamagnetischen Substanzen durch die Verwendung von magnetischen Streufeldern zu beeinflussen und somit ein Schichtwachstum bevorzugt in gewünschten Bereichen eines Substrats zu erreichen. Es wurde ein austauschverschobenes Dünnschichtsystem über das Verfahren der ionenbeschuss-induzierten magnetischen Strukturierung mit einem künstlichen Domänenmuster in streifenförmiger Anordnung im Mikrometermaßstab erzeugt. Über experimentelle Untersuchungen wurden die aus diesem Schichtsystem austretenden magnetischen Streufelder erstmals quantifiziert. Die experimentell unvermeidbaren Mittelungen und technischen Limitierungen wurden mithilfe eines theoretischen Modells herausgerechnet, sodass letztlich die resultierende Magnetfeldlandschaft in allen drei Dimensionen über der Probenoberfläche erhalten wurde. Durch die Bestimmung der magnetischen Suszeptibilitäten der hier verwendeten thioethersubstituierten Subphthalocyanin-Derivate konnte somit die Berechnung der induzierten magnetischen Kräfte erfolgen, deren Vergleich mit Literaturwerten eine erfolgreiche Beeinflussung der Anlagerung dieser Substanzen erhoffen ließ. Aufgrund der Kombination diverser, anspruchsvoller Nachweisverfahren konnte der experimentelle Beweis für die erfolgreiche Positionierung der molekularen Substanzen durch die magnetischen Streufelder des Dünnschichtsystems erbracht werden. Zunächst wurde nachgewiesen, dass sich die Subphthalocyanin-Derivate auf der Probenoberfläche befinden und in einer mit der Periode der magnetischen Domänenstruktur korrelierenden Geometrie anlagern. Über Untersuchungen an Synchrotronstrahlungsquellen konnte die magnetische Streifenstruktur mit der Struktur der angelagerten Moleküle überlagert werden, sodass bekannt wurde, dass sich die Moleküle bevorzugt in den magnetisch begünstigten Bereichen anlagern. Um mögliche Einflüsse einer eventuell durch den magnetischen Strukturierungsprozess lokal modifizierten Substratoberfläche als Ursache für die lokale Molekülanlagerung ausschließen zu können, wurden zusätzliche Referenzmessungen durchgeführt. Alle Untersuchungen zeigen, dass die Molekülpositionierung auf der Wechselwirkung der diamagnetischen Substanzen mit den Streufeldern des Substrats zurückzuführen ist. Der im Rahmen dieser Arbeit entwickelte Mechanismus der magnetischen Beeinflussung der lokalen Molekülanlagerung besagt dabei, dass insbesondere die Oberflächendiffusion der selbstassemblierenden Substanz durch die in-plane-Magnetfeldkomponente beeinflusst wird und vermutlich die Nukleationsphase der Selbstassemblierung entscheidend für die lokale Materialabscheidung ist. Es konnte in dieser Arbeit somit gezeigt werden, dass eine Beeinflussung der Selbstassemblierung von diamagnetischen Subphthalocyanin-Derivaten und somit eine lokal bevorzugte Anlagerung dieser Substanzen durch magnetische Streufelder von magnetisch strukturierten austauschverschobenen Dünnschichtsystemen erreicht werden kann. Es resultiert somit eine neue Möglichkeit die technologisch wichtigen Selbstassemblierungsprozesse nun auch über magnetische Streufelder beeinflussen und kontrollieren zu können. Durch die hohe Flexibilität bei den Strukturierungsmöglichkeiten der magnetischen Domänengeometrien der hier verwendeten austauschverschobenen Dünnschichtsysteme resultieren aus den hier gezeigten Ergebnissen vielfältige Anwendungsmöglichkeiten im Bereich der Beschichtungstechnik.
Resumo:
Im Rahmen dieser Arbeit wird eine gemeinsame Optimierung der Hybrid-Betriebsstrategie und des Verhaltens des Verbrennungsmotors vorgestellt. Die Übernahme von den im Steuergerät verwendeten Funktionsmodulen in die Simulationsumgebung für Fahrzeuglängsdynamik stellt eine effiziente Applikationsmöglichkeit der Originalparametrierung dar. Gleichzeitig ist es notwendig, das Verhalten des Verbrennungsmotors derart nachzubilden, dass das stationäre und das dynamische Verhalten, inklusive aller relevanten Einflussmöglichkeiten, wiedergegeben werden kann. Das entwickelte Werkzeug zur Übertragung der in Ascet definierten Steurgerätefunktionen in die Simulink-Simulationsumgebung ermöglicht nicht nur die Simulation der relevanten Funktionsmodule, sondern es erfüllt auch weitere wichtige Eigenschaften. Eine erhöhte Flexibilität bezüglich der Daten- und Funktionsstandänderungen, sowie die Parametrierbarkeit der Funktionsmodule sind Verbesserungen die an dieser Stelle zu nennen sind. Bei der Modellierung des stationären Systemverhaltens des Verbrennungsmotors erfolgt der Einsatz von künstlichen neuronalen Netzen. Die Auswahl der optimalen Neuronenanzahl erfolgt durch die Betrachtung des SSE für die Trainings- und die Verifikationsdaten. Falls notwendig, wird zur Sicherstellung der angestrebten Modellqualität, das Interpolationsverhalten durch Hinzunahme von Gauß-Prozess-Modellen verbessert. Mit den Gauß-Prozess-Modellen werden hierbei zusätzliche Stützpunkte erzeugt und mit einer verminderten Priorität in die Modellierung eingebunden. Für die Modellierung des dynamischen Systemverhaltens werden lineare Übertragungsfunktionen verwendet. Bei der Minimierung der Abweichung zwischen dem Modellausgang und den Messergebnissen wird zusätzlich zum SSE das 2σ-Intervall der relativen Fehlerverteilung betrachtet. Die Implementierung der Steuergerätefunktionsmodule und der erstellten Steller-Sensor-Streckenmodelle in der Simulationsumgebung für Fahrzeuglängsdynamik führt zum Anstieg der Simulationszeit und einer Vergrößerung des Parameterraums. Das aus Regelungstechnik bekannte Verfahren der Gütevektoroptimierung trägt entscheidend zu einer systematischen Betrachtung und Optimierung der Zielgrößen bei. Das Ergebnis des Verfahrens ist durch das Optimum der Paretofront der einzelnen Entwurfsspezifikationen gekennzeichnet. Die steigenden Simulationszeiten benachteiligen Minimumsuchverfahren, die eine Vielzahl an Iterationen benötigen. Um die Verwendung einer Zufallsvariablen, die maßgeblich zur Steigerung der Iterationanzahl beiträgt, zu vermeiden und gleichzeitig eine Globalisierung der Suche im Parameterraum zu ermöglichen wird die entwickelte Methode DelaunaySearch eingesetzt. Im Gegensatz zu den bekannten Algorithmen, wie die Partikelschwarmoptimierung oder die evolutionären Algorithmen, setzt die neu entwickelte Methode bei der Suche nach dem Minimum einer Kostenfunktion auf eine systematische Analyse der durchgeführten Simulationsergebnisse. Mit Hilfe der bei der Analyse gewonnenen Informationen werden Bereiche mit den bestmöglichen Voraussetzungen für ein Minimum identifiziert. Somit verzichtet das iterative Verfahren bei der Bestimmung des nächsten Iterationsschrittes auf die Verwendung einer Zufallsvariable. Als Ergebnis der Berechnungen steht ein gut gewählter Startwert für eine lokale Optimierung zur Verfügung. Aufbauend auf der Simulation der Fahrzeuglängsdynamik, der Steuergerätefunktionen und der Steller-Sensor-Streckenmodelle in einer Simulationsumgebung wird die Hybrid-Betriebsstrategie gemeinsam mit der Steuerung des Verbrennungsmotors optimiert. Mit der Entwicklung und Implementierung einer neuen Funktion wird weiterhin die Verbindung zwischen der Betriebsstrategie und der Motorsteuerung erweitert. Die vorgestellten Werkzeuge ermöglichten hierbei nicht nur einen Test der neuen Funktionalitäten, sondern auch eine Abschätzung der Verbesserungspotentiale beim Verbrauch und Abgasemissionen. Insgesamt konnte eine effiziente Testumgebung für eine gemeinsame Optimierung der Betriebsstrategie und des Verbrennungsmotorverhaltens eines Hybridfahrzeugs realisiert werden.
Resumo:
In der vorliegenden Arbeit ist die Konstruktion und der Aufbau eines Systems zur gepulsten Laserablation von dünnen Schichten beschrieben. Die hohe Flexibilität der Anlage wird ermöglicht durch einen sechsfach-Targethalter und eine Heizerkonstruktion, die einfachen Substrateinbau, hohe Temperaturhomogenität und einen zugänglichen Temperaturbereich von bis zu 1000°C erlaubt. Durch eine komplexe Laser-Optik, die eine homogene Energiedichte auf dem Target sicherstellt, wird eine optimale Filmqualität erreicht.Durch die Entwicklung einer zweistufigen Prozeßführung für Y-stabilisiertes ZrO2 wird eine Wachstumsbasis hoher kristalliner Qualität für funktionale Oxidschichten auf Silizium zur Verfügung gestellt. Es zeigt sich, daß die dielektrischen Eigenschaften der YSZ Schicht stark vom Sauerstoffgehalt, der Grenzflächenmorphologie sowie der Dicke der ersten Schicht abhängig sind. Basierend auf dieser Schicht wurde BaZrO3 als zusätzliche Pufferschicht für den Hochtemperatursupraleiter (HTSL) YBa2Cu3O7 ? untersucht. Unter Verwendung von SrTiO3 Substraten konnte die dielektrische Konstante von BaZrO3 zu ? ? 65 bestimmt sowie das Dispersionsverhalten mittels modifizierter Debye-Gleichungen erklärt werden. Vergleichende Messungen auf einkristallinen SrTiO3 Substraten zeigen eine erhöhte Übergangstemperatur von 90.2 K und eine wesentliche Verbesserung der Oberflächenrauhigkeit des HTSL von 2 nm (rms) durch die Verwendung von BaZrO3 Schichten hoher Qualität. Eine nur wenige Monolagen dicke zusätzliche BaZrO3 Pufferschicht auf YSZ-gepufferten Silizium Substraten verhindert die Ausbildung von ?9° rotierten YBCO Körnern, die üblicherweise bei der direkten Deposition auf YSZ beobachtet werden. Resistive Messungen mit Übergangstemperaturen oberhalb 89 K sind vergleichbar zu Ergebnissen, die für CeO2/YSZ Pufferschichtkombinationen erreicht werden. Durch kontinuierliche Gitteranpassung wurde eine neue Schichtabfolge YBCO/CeO2/YSZ/BaZrO3 für die Erzeugung bi-epitaxialer Korngrenzen-Josephson Kontake gefunden und deren Epitaxiebeziehungen geklärt. Eine in-situ deponierte Schichtabfolge zeigt mit einer Übergangstemperatur von 91.7 K und einer Übergangsbreite von 0.15 K supraleitende Eigenschaften vergleichbar zu den besten bisher auf diesem Gebiet erreichten Ergebnissen. Voruntersuchungen zur Realisierung eines Josephsonkontaktes mit dieser Schichtabfolge zeigen jedoch, daß die erreichten Eigenschaften für die technologische Anwendung nicht ausreichend sind.Die Verwendung einer YSZ/CeO2 Pufferschichtkombination ermöglicht die Herstellung von c Achsen orientiertem ferroelektrischem SrBi2Ta2O9 auf Silizium. Im Gegensatz hierzu führt die direkte Deposition auf Silizium zu polykristallinem SrBi2Ta2O9 oder zur Ausbildung der Pyrochlor Phase, wenn nur YSZ als Pufferschicht verwendet wird. Obwohl die Polarisierung von SrBi2Ta2O9 in der ab-Ebene liegt, konnte in MFIS Strukturen ein Speicherfenster von maximal 0.87 V beobachtet werden, was eine Verbesserung um nahezu einen Faktor drei im Vergleich zu polykristallinem SrBi2Ta2O9 bedeutet. Messungen an ferroelektrischen Kondesatorstrukturen ergeben Hystereseschleifen mit einer remanenten Polarisierung von Pr = 6.5 µC/cm2 sowie einem Koerzitivfeld von Ec = 35 kV/cm. AFM Messungen im Piezo-Response Modus zeigen ferroelektrische Domänen, die durch Anlegen einer Gleichspannung reversibel umpolarisiert werden können. Im Nicht-Kontakt AFM Modus wurde die lokale Polarisierung der Schichten zu 3.4 µC/cm2 bestimmt. Weiterhin wurde eine alternative Pufferschichtkombination SrZrO3/YSZ zur Erzeugung von a-Achsen orientiertem SrBi2Ta2O9 untersucht. SrZrO3 zeigt a Achsen Orientierung in vier Wachstumsdomänen, die durch ein Model erklärt werden können. Die SrBi2Ta2O9 Schicht zeigt a Achsen sowie (116)-orientierte Körner mit derselben Domänenstruktur. Die dielektrische Konstanten von SrZrO3 und SrBi2Ta2O9 wurden zu ? ? 29 und ? ? 20 bestimmt. Die beobachteten Speicherfenster sind allerdings nicht ferroelektrischer Natur, sondern wahrscheinlich durch mobile Ionen und Ladungsfangstellen in den Pufferschichten verursacht. Die stark abgesenkte dielektrische Konstante von SrBi2Ta2O9 kann durch die im Vergleich zu polykristallinem verkleinerte Korngröße erklärt werden.
Resumo:
In order to eliminate the de Gennes packing problem, which usually limits the attainable size of dendrimers, a new branching unit containing para-tetraphenylene ethynyl arms has been synthesized and utilized in the preparation of dendrimers of the Müllen type. The divergent principle of synthesis, based on the Dilthey reaction, could be carried up to sixth generation which contains 2776 benzene rings and possesses a diameter in the 27 nm range ("exploded dendrimer"). Monodispersity and dimensions of this and the lower generation species have been studied by MALDI-TOF MS (including the very recent superconducting tunnel junction detector), by size-exclusion chromatography, dynamic light scattering, transmission electron microscopy, and atomic force microscopy. Interesting features, apart from the huge dimension, are the low density and high porosity of these giant molecules which cause extensive aggregation in the gas phase, flattening on solid support (AFM) and the ready incorporation of guest molecules in the condensed phase. Since the synthesis of the para-tetraphenylene arms is quite elaborate, similar dendrimers containing para-terphenylene arms have been prepared; they are accessible more economically ("semi-exploded dendrimers"). It has been shown that they in several aspects mimic the features of the "exploded dendrimers". In order to take advantage of the presence of large internal cavities in this dendrimer type, dendrons containing -C≡C- triple bonds have also been incorporated. Surprisingly, they are readily hydrogenated under the condition of heterogeneous catalysis (Pd/C) which demonstrates the large size of the cavities. As revealed by a quartz microbalance study the post-hydrogenation dendrimers are less prone to incorporate guest molecules than before hydrogenation. Obviously, the more flexible nature of the former reduces porosity, it also leads to significant shrinkage. An interesting perspective is the use of homogeneous hydrogenation catalysts of variable size with the aim of determining the dimension of internal free space.
Resumo:
The new family of the anion receptors based on oligoureas with varied flexibility was developed and studied. The preparation of the urea chains containing two different units in various sequences was elaborated. The complete sets of four cyclic trimers and six tetramers based on the two units were prepared. Their conformational and complexation properties were studied with NMR spectroscopy and X-ray structure determinations, their behaviour towards various anions was evaluated and compared. The synthesis and the same studies were performed also with four different cyclic hexamers. During these studies the remarkable templation by two halide anions was observed.
Resumo:
Abstract Originalsprache (englisch) Visual perception relies on a two-dimensional projection of the viewed scene on the retinas of both eyes. Thus, visual depth has to be reconstructed from a number of different cues that are subsequently integrated to obtain robust depth percepts. Existing models of sensory integration are mainly based on the reliabilities of individual cues and disregard potential cue interactions. In the current study, an extended Bayesian model is proposed that takes into account both cue reliability and consistency. Four experiments were carried out to test this model's predictions. Observers had to judge visual displays of hemi-cylinders with an elliptical cross section, which were constructed to allow for an orthogonal variation of several competing depth cues. In Experiment 1 and 2, observers estimated the cylinder's depth as defined by shading, texture, and motion gradients. The degree of consistency among these cues was systematically varied. It turned out that the extended Bayesian model provided a better fit to the empirical data compared to the traditional model which disregards covariations among cues. To circumvent the potentially problematic assessment of single-cue reliabilities, Experiment 3 used a multiple-observation task, which allowed for estimating perceptual weights from multiple-cue stimuli. Using the same multiple-observation task, the integration of stereoscopic disparity, shading, and texture gradients was examined in Experiment 4. It turned out that less reliable cues were downweighted in the combined percept. Moreover, a specific influence of cue consistency was revealed. Shading and disparity seemed to be processed interactively while other cue combinations could be well described by additive integration rules. These results suggest that cue combination in visual depth perception is highly flexible and depends on single-cue properties as well as on interrelations among cues. The extension of the traditional cue combination model is defended in terms of the necessity for robust perception in ecologically valid environments and the current findings are discussed in the light of emerging computational theories and neuroscientific approaches.
Resumo:
Die vorliegende Arbeit beschäftigt sich mit Kriterien effizienter und flexibler Informationsverarbeitung und deren Auswirkungen auf den Karriereerfolg. Die Kriterien Interferenz, Interferenz unter der negativen Priming-Bedingung und die Spontanflexibilität wurden in drei aufeinander aufbauenden Studien untersucht. Die Interferenzindices wurden mit einer modifizierten Form des Stroop-Tests erhoben, und das Konstrukt der Spontanflexibilität wurde mit der Gauß-Aufgabe, der Wasserumschüttaufgabe, dem Wortgruppentest und der Anagramm-Aufgabe operationalisiert. Bei diesen Aufgaben wurde eine Lösungsstrategie vorgegeben, aber es gab zusätzlich eine effizientere Lösungsstrategie, die während der Bearbeitung der Einzelaufgaben immer offensichtlicher wurde. Da die einzelnen Aufgaben nicht signifikant miteinander korrelierten, wurde im Rahmen einer Nachuntersuchung die Reliabilität über Parallelaufgaben geprüft. Für die Diagnose von Gruppenunterschieden erwiesen sich die Indikatoren der Spontanflexibilität als hinreichend reliabel. Die Wortdarbietungszeiten der Interferenzindices waren hochreliabel. Zwischen den Interferenzindices zeigte sich ein starker positiver Zusammenhang. Zur Validierung der Aufgaben wurden Beurteilungen über die berufliche Leistung der Versuchsteilnehmer herangezogen. Zwischen den einzelnen Beurteilungskriterien zeigten sich hohe Zusammenhänge. Die Gauß-Aufgabe korrelierte mit einem Beurteilungskriterium, dessen Verhaltensbeschreibungen sehr gut mit der Definition der Spontanflexibilität übereinstimmten. Die Wasserumschüttaufgabe korrelierte mit einem Beurteilungskriterium, welches eher eine durch die Situation herausgeforderte Flexibilität widerspiegelt. Die Interferenzindikatoren korrelierten mit Beurteilungskriterien, die zum einen die Fähigkeit zum Aufbauen von professionellen Beziehungen und zum anderen die Effizienz und den Qualitätsstandard eines Mitarbeiters bewerteten. Aufgrund der replizierten Zusammenhänge kann davon ausgegangen werden, dass die Interferenz, die Interferenz unter der negativen Priming-Bedingung, die Spontanflexibilität und die herausgeforderte Flexibilität Einfluss auf den Karriereerfolg eines Mitarbeiters nehmen. Aus diesem Grund bieten sich im Bereich der Arbeits- und Organisationspsychologie vielversprechende Einsatzmöglichkeiten für die in dieser Untersuchung entwickelten Tests an.
Resumo:
In dieser Dissertation wurden die Methoden Homologiemodellierung und Molekulardynamik genutzt, um die Struktur und das Verhalten von Proteinen in Lösung zu beschreiben. Mit Hilfe der Röntgenkleinwinkelstreuung wurden die mit den Computermethoden erzeugten Vorhersagen verifiziert. Für das alpha-Hämolysin, ein Toxin von Staphylococcus aureus, das eine heptamere Pore formen kann, wurde erstmalig die monomere Struktur des Protein in Lösung beschrieben. Homologiemodellierung auf Basis verwandter Proteine, deren monomere Struktur bekannt war, wurde verwendet, um die monomere Struktur des Toxins vorherzusagen. Flexibilität von Strukturelementen in einer Molekulardynamiksimulation konnte mit der Funktionalität des Proteines korreliert werden: Intrinsische Flexibilität versetzt das Protein in die Lage den Konformationswechsel zur Pore nach Assemblierung zu vollziehen. Röntgenkleinwinkelstreuung bewies die Unterschiede der monomeren Struktur zu den Strukturen der verwandten Proteine und belegt den eigenen Vorschlag zur Struktur. Überdies konnten Arbeiten an einer Mutante, die in einer sogenannten Präporenkonformation arretiert und nicht in der Lage ist eine Pore zu formen, zeigen, dass dieser Übergangszustand mit der Rotationsachse senkrecht zur Membran gelagert ist. Eine geometrische Analyse beweist, dass es sterisch möglich ist ausgehend von dieser Konformation die Konformation der Pore zu erreichen. Eine energetische und kinetische Analyse dieses Konformationswechsels steht noch aus. Ein weiterer Teil der Arbeit befasst sich mit den Konformationswechseln von Hämocyaninen. Diese wurden experimentell mittels Röntgenkleinwinkelstreuung verfolgt. Konformationswechsel im Zusammenhang mit der Oxygenierung konnten für die 24meren Hämocyanine von Eurypelma californicum und Pandinus imperator beschrieben werden. Für eine Reihe von Hämocyaninen ist nachgewiesen, dass sie unter Einfluss des Agenz SDS Tyrosinaseaktivität entfalten können. Der Konformationswechsel der Hämocyanine von E. californicum und P. imperator bei der Aktivierung zur Tyrosinase mittels SDS wurde experimentell bestätigt und die Stellung der Dodekamere der Hämocyanine als wesentlich bei der Aktivierung festgestellt. Im Zusammenhang mit anderen Arbeiten gilt damit die Relaxierung der Struktur unter SDS-Einfluss und der sterische Einfluss auf die verbindenden Untereinheiten b & c als wahrscheinliche Ursache für die Aktivierung zur Tyrosinase. Eigene Software zum sogenannten rigid body-Modellierung auf der Basis von Röntgenkleinwinkelstreudaten wurde erstellt, um die Streudaten des hexameren Hämocyanins von Palinurus elephas und Palinurus argus unter Einfluss der Effektoren Urat und Koffein strukturell zu interpretieren. Die Software ist die erste Implementierung eines Monte Carlo-Algorithmus zum rigid body-Modelling. Sie beherrscht zwei Varianten des Algorithmus: In Verbindung mit simulated annealing können wahrscheinliche Konformationen ausgefiltert werden und in einer anschließenden systematischen Analyse kann eine Konformation geometrisch beschrieben werden. Andererseits ist ein weiterer, reiner Monte Carlo-Algorithmus in der Lage die Konformation als Dichteverteilung zu beschreiben.