8 resultados para Discrete-time linear systems
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In der vorliegenden Dissertation wurden kreuzkonjugierte organische Verbindungen basierend auf Diazafluorenmethyliden- sowie Dipyridylmethyliden-Bausteinen synthetisiert, die zum einen photoredoxaktive Metallfragmente komplexieren können und zum anderen erweiterte π-konjugierte Pfade auf der Grundlage von Alkineinheiten ermöglichen. Das kreuzkonjugierte Motiv wurde über die Kupplung von Alkineinheiten an halogenierte Methyliden-Einheiten, den so genannten Dibromolefinen, zugänglich gemacht. Zur Synthese von Dibromolefinen wurden verschiedene Methoden untersucht. Literaturbekannte Methoden wie die Wittig-Reaktion und ihre Modifikationen sowie die Corey-Fuchs-Reaktion konnten für die Diazafluoreneinheit nicht erfolgreich angewendet werden. Bei einer mikrowellenunterstützten Reaktion konnte sowohl ausgehend von Diazafluoren-9-on als auch von Di-2-pyridylketon eine Dibromolefinierung (55 % und 65 %) erreicht werden. Die Eignung der Mikrowellenstrahlung für Dibromolefinierungsreaktionen nach Corey und Fuchs wurde weiterhin an verschiedenen Aldehyden und Ketonen untersucht. In den meisten Fällen konnten gute bis sehr gute Ergebnisse erzielt werden. Durch die erfolgreiche Synthese von Dibromolefinen über Mikrowellensynthese wurde die Realisierung von diversen π-konjugierten Systemen möglich. Dies erfolgte exemplarisch durch die Kupplung der Alkine 5-Ethinyl-2,2’-bipyridin, 1-(Ferrocenylethinyl)-4-(ethinyl)benzol, Tri(tolyl)propin sowie der TIPS- und TMS-Acetylene. Neben der Vielfalt an Möglichkeiten zur Funktionalisierung von Dipyridyl- und Diazafluorenbausteinen zeigte sich zudem, dass sogar räumlich anspruchsvolle Verbindungen wie die geminale angeordneten voluminösen Tri(tolyl)propinyl-Substituenten an der Doppelbindung erfolgreich synthetisiert werden können. Die Koordinationseigenschaften der neu synthetisierten Verbindungen konnten durch Umsetzungen der Diazafluoren- und Dipyridylverbindungen mit PdCl2 und [RuCl2(bpy)2] erfolgreich gezeigt werden. Im Hinblick auf die Herstellung von Funktionsmaterialien eignen sich die Endiin-Strukturmotive aufgrund von diversen Variationsmöglichkeiten wie Koordination von Übergangsmetallen sowie Funktionalisierung der Peripherie gut. Dadurch können die elektronischen Eigenschaften wie die Absorption oder elektrochemische Potentiale der Verbindungen modifiziert werden. Die UV/Vis-Spektren der neu synthetisierten Verbindungen zeigen, dass Absorptionen in längerwelligen Bereichen durch Verlängerung des Konjugationspfades gesteuert werden können. Zudem lassen sich weitere photophysikalische Eigenschaften wie MC-, LC-, LMCT- oder MLCT-Übergänge durch Koordination von Metallen generieren. Die elektrochemischen Potentiale der Dipyridyl- und Diazafluorenbausteine konnten durch Anbindung von verschiedenen Substituenten beeinflusst werden. Es zeigte sich, dass sich die Reduktionswellen im Vergleich zu denen der Ketone zu niedrigeren Potentialen verschieben, wenn Alkine an die Dipyridylmethyliden- und Diazafluorenmethyliden-Bausteine geknüpft wurden. Zudem konnte beobachtet werden, dass die Signale nicht immer reversibel sind. Insbesondere die Dipyridylverbindungen zeichneten sich durch irreversible Reduktionswellen aus. Die Realisierung von π-konjugierten Systemen gelang auch mit cyclischen kohlenstoffbasierten Verbindungen. Über das separat synthetisierte 2,2’-Diethinyltolan konnte eine cyclische Verbindung, ein dehydroannulen-radialenisches System, erfolgreich hergestellt werden. Die Koordination von redoxaktiven Metallzentren wie [Ru(bpy)2] konnte für diese Verbindung ebenfalls erfolgreich gezeigt werden. Die elektronische Wechselwirkung zwischen dem Metallzentrum und dem dehydroannulenischen System könnte sowohl über theoretische Methoden (zeitabhängige Dichtefunktionaltheorie) als auch experimentell wie z. B. über transiente Absorptionsspektroskopie untersucht werden. Diese zukünftig durchzuführenden Untersuchungen können Aufschluss über die Ladungstransferraten und -dauer geben. Im Hinblick auf die Realisierung von Modellverbindungen für molekulare Drähte wurden lineare Systeme basierend auf der Diazafluoreneinheit synthetisiert. Zur Synthese von derartigen Systemen war es zunächst notwendig, die Dibromolefine unsymmetrisch zu alkinylieren. Die unsymmetrische Substitution gestaltete sich als Herausforderung, da eine Einfachkupplung mit einem Acetylen nicht möglich war. In den meisten Fällen wurden zweifach substituierte Spezies mit den identischen Alkinen erhalten. Die besten Ausbeuten konnten durch die konsekutive Zugabe von TIPS-Acetylen und darauffolgend TMS-Acetylen in die Reaktionsmischung erhalten werden. Offenbar spielt der räumliche Anspruch des Erstsubstituenten in diesem Zusammenhang eine Rolle. Die selektive Entschützung der unterschiedlich silylierten Verbindungen erfolgte mit K2CO3 in MeOH/THF (1:1). Die oxidative Homokupplungsreaktion erfolgte ohne Isolierung der entschützten Spezies, da diese instabil ist und zur Polymerisation neigt. Aufgrund der Instabilität der entschützten Spezies sowie möglichen Nebenreaktionen waren die Ausbeuten sowohl bei der TIPS-geschützten Verbindung als auch bei der TTP-geschützten Verbindung gering. Versuche, lineare Systeme von dipyridylbasierten Verbindungen zu erhalten, schlugen fehl. Die π-konjugierten Systeme lassen aufgrund der effektiven Überlappung der beteiligten π-Orbitale hohe Ladungsträgermobilitäten vermuten. Die im Rahmen dieser Arbeit synthetisierten Verbindungen könnten mit Schwefelverbindungen die Anbindung an Elektroden zulassen, worüber die Leitfähigkeiten der Verbindungen gemessen werden könnten.
Resumo:
In der algebraischen Kryptoanalyse werden moderne Kryptosysteme als polynomielle, nichtlineare Gleichungssysteme dargestellt. Das Lösen solcher Gleichungssysteme ist NP-hart. Es gibt also keinen Algorithmus, der in polynomieller Zeit ein beliebiges nichtlineares Gleichungssystem löst. Dennoch kann man aus modernen Kryptosystemen Gleichungssysteme mit viel Struktur generieren. So sind diese Gleichungssysteme bei geeigneter Modellierung quadratisch und dünn besetzt, damit nicht beliebig. Dafür gibt es spezielle Algorithmen, die eine Lösung solcher Gleichungssysteme finden. Ein Beispiel dafür ist der ElimLin-Algorithmus, der mit Hilfe von linearen Gleichungen das Gleichungssystem iterativ vereinfacht. In der Dissertation wird auf Basis dieses Algorithmus ein neuer Solver für quadratische, dünn besetzte Gleichungssysteme vorgestellt und damit zwei symmetrische Kryptosysteme angegriffen. Dabei sind die Techniken zur Modellierung der Chiffren von entscheidender Bedeutung, so das neue Techniken entwickelt werden, um Kryptosysteme darzustellen. Die Idee für das Modell kommt von Cube-Angriffen. Diese Angriffe sind besonders wirksam gegen Stromchiffren. In der Arbeit werden unterschiedliche Varianten klassifiziert und mögliche Erweiterungen vorgestellt. Das entstandene Modell hingegen, lässt sich auch erfolgreich auf Blockchiffren und auch auf andere Szenarien erweitern. Bei diesen Änderungen muss das Modell nur geringfügig geändert werden.
Resumo:
Die gegenwärtige Entwicklung der internationalen Klimapolitik verlangt von Deutschland eine Reduktion seiner Treibhausgasemissionen. Wichtigstes Treibhausgas ist Kohlendioxid, das durch die Verbrennung fossiler Energieträger in die Atmosphäre freigesetzt wird. Die Reduktionsziele können prinzipiell durch eine Verminderung der Emissionen sowie durch die Schaffung von Kohlenstoffsenken erreicht werden. Senken beschreiben dabei die biologische Speicherung von Kohlenstoff in Böden und Wäldern. Eine wichtige Einflussgröße auf diese Prozesse stellt die räumliche Dynamik der Landnutzung einer Region dar. In dieser Arbeit wird das Modellsystem HILLS entwickelt und zur Simulation dieser komplexen Wirkbeziehungen im Bundesland Hessen genutzt. Ziel ist es, mit HILLS über eine Analyse des aktuellen Zustands hinaus auch Szenarien über Wege der zukünftigen regionalen Entwicklung von Landnutzung und ihrer Wirkung auf den Kohlenstoffhaushalt bis 2020 zu untersuchen. Für die Abbildung der räumlichen und zeitlichen Dynamik von Landnutzung in Hessen wird das Modell LUCHesse entwickelt. Seine Aufgabe ist die Simulation der relevanten Prozesse auf einem 1 km2 Raster, wobei die Raten der Änderung exogen als Flächentrends auf Ebene der hessischen Landkreise vorgegeben werden. LUCHesse besteht aus Teilmodellen für die Prozesse: (A) Ausbreitung von Siedlungs- und Gewerbefläche, (B) Strukturwandel im Agrarsektor sowie (C) Neuanlage von Waldflächen (Aufforstung). Jedes Teilmodell umfasst Methoden zur Bewertung der Standorteignung der Rasterzellen für unterschiedliche Landnutzungsklassen und zur Zuordnung der Trendvorgaben zu solchen Rasterzellen, die jeweils am besten für eine Landnutzungsklasse geeignet sind. Eine Validierung der Teilmodelle erfolgt anhand von statistischen Daten für den Zeitraum von 1990 bis 2000. Als Ergebnis eines Simulationslaufs werden für diskrete Zeitschritte digitale Karten der Landnutzugsverteilung in Hessen erzeugt. Zur Simulation der Kohlenstoffspeicherung wird eine modifizierte Version des Ökosystemmodells Century entwickelt (GIS-Century). Sie erlaubt einen gesteuerten Simulationslauf in Jahresschritten und unterstützt die Integration des Modells als Komponente in das HILLS Modellsystem. Es werden verschiedene Anwendungsschemata für GIS-Century entwickelt, mit denen die Wirkung der Stilllegung von Ackerflächen, der Aufforstung sowie der Bewirtschaftung bereits bestehender Wälder auf die Kohlenstoffspeicherung untersucht werden kann. Eine Validierung des Modells und der Anwendungsschemata erfolgt anhand von Feld- und Literaturdaten. HILLS implementiert eine sequentielle Kopplung von LUCHesse mit GIS-Century. Die räumliche Kopplung geschieht dabei auf dem 1 km2 Raster, die zeitliche Kopplung über die Einführung eines Landnutzungsvektors, der die Beschreibung der Landnutzungsänderung einer Rasterzelle während des Simulationszeitraums enthält. Außerdem integriert HILLS beide Modelle über ein dienste- und datenbankorientiertes Konzept in ein Geografisches Informationssystem (GIS). Auf diesem Wege können die GIS-Funktionen zur räumlichen Datenhaltung und Datenverarbeitung genutzt werden. Als Anwendung des Modellsystems wird ein Referenzszenario für Hessen mit dem Zeithorizont 2020 berechnet. Das Szenario setzt im Agrarsektor eine Umsetzung der AGENDA 2000 Politik voraus, die in großem Maße zu Stilllegung von Ackerflächen führt, während für den Bereich Siedlung und Gewerbe sowie Aufforstung die aktuellen Trends der Flächenausdehnung fortgeschrieben werden. Mit HILLS ist es nun möglich, die Wirkung dieser Landnutzungsänderungen auf die biologische Kohlenstoffspeicherung zu quantifizieren. Während die Ausdehnung von Siedlungsflächen als Kohlenstoffquelle identifiziert werden kann (37 kt C/a), findet sich die wichtigste Senke in der Bewirtschaftung bestehender Waldflächen (794 kt C/a). Weiterhin führen die Stilllegung von Ackerfläche (26 kt C/a) sowie Aufforstung (29 kt C/a) zu einer zusätzlichen Speicherung von Kohlenstoff. Für die Kohlenstoffspeicherung in Böden zeigen die Simulationsexperimente sehr klar, dass diese Senke nur von beschränkter Dauer ist.
Resumo:
In the present paper we concentrate on solving sequences of nonsymmetric linear systems with block structure arising from compressible flow problems. We attempt to improve the solution process by sharing part of the computational effort throughout the sequence. This is achieved by application of a cheap updating technique for preconditioners which we adapted in order to be used for our applications. Tested on three benchmark compressible flow problems, the strategy speeds up the entire computation with an acceleration being particularly pronounced in phases of instationary behavior.
Resumo:
In der Arbeit werden zunächst die wesentlichsten Fakten über Schiefpolynome wiederholt, der Fokus liegt dabei auf Shift- und q-Shift-Operatoren in Charakteristik Null. Alle für die Arithmetik mit diesen Objekten notwendigen Konzepte und Algorithmen finden sich im ersten Kapitel. Einige der zur Bestimmung von Lösungen notwendigen Daten können aus dem Newtonpolygon, einer den Operatoren zugeordneten geometrischen Figur, abgelesen werden. Die Herleitung dieser Zusammenhänge ist das Thema des zweiten Kapitels der Arbeit, wobei dies insbesondere im q-Shift-Fall in dieser Form neu ist. Das dritte Kapitel beschäftigt sich mit der Bestimmung polynomieller und rationaler Lösungen dieser Operatoren, dabei folgt es im Wesentlichen der Darstellung von Mark van Hoeij. Der für die Faktorisierung von (q-)Shift Operatoren interessanteste Fall sind die sogenannten (q-)hypergeometrischen Lösungen, die direkt zu Rechtsfaktoren erster Ordnung korrespondieren. Im vierten Kapitel wird der van Hoeij-Algorithmus vom Shift- auf den q-Shift-Fall übertragen. Außerdem wird eine deutliche Verbesserung des q-Petkovsek-Algorithmus mit Hilfe der Daten des Newtonpolygons hergeleitet. Das fünfte Kapitel widmet sich der Berechnung allgemeiner Faktoren, wozu zunächst der adjungierte Operator eingeführt wird, der die Berechnung von Linksfaktoren erlaubt. Dann wird ein Algorithmus zur Berechnung von Rechtsfaktoren beliebiger Ordnung dargestellt. Für die praktische Benutzung ist dies allerdings für höhere Ordnungen unpraktikabel. Bei fast allen vorgestellten Algorithmen tritt das Lösen linearer Gleichungssysteme über rationalen Funktionenkörpern als Zwischenschritt auf. Dies ist in den meisten Computeralgebrasystemen nicht befriedigend gelöst. Aus diesem Grund wird im letzten Kapitel ein auf Evaluation und Interpolation basierender Algorithmus zur Lösung dieses Problems vorgestellt, der in allen getesteten Systemen den Standard-Algorithmen deutlich überlegen ist. Alle Algorithmen der Arbeit sind in einem MuPAD-Package implementiert, das der Arbeit beiliegt und eine komfortable Handhabung der auftretenden Objekte erlaubt. Mit diesem Paket können in MuPAD nun viele Probleme gelöst werden, für die es vorher keine Funktionen gab.
Resumo:
We present a new scheme to solve the time dependent Dirac-Fock-Slater equation (TDDFS) for heavy many electron ion-atom collision systems. Up to now time independent self consistent molecular orbitals have been used to expand the time dependent wavefunction and rather complicated potential coupling matrix elements have been neglected. Our idea is to minimize the potential coupling by using the time dependent electronic density to generate molecular basis functions. We present the first results for 16 MeV S{^16+} on Ar.
Resumo:
This paper contributes to the study of Freely Rewriting Restarting Automata (FRR-automata) and Parallel Communicating Grammar Systems (PCGS), which both are useful models in computational linguistics. For PCGSs we study two complexity measures called 'generation complexity' and 'distribution complexity', and we prove that a PCGS Pi, for which the generation complexity and the distribution complexity are both bounded by constants, can be transformed into a freely rewriting restarting automaton of a very restricted form. From this characterization it follows that the language L(Pi) generated by Pi is semi-linear, that its characteristic analysis is of polynomial size, and that this analysis can be computed in polynomial time.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.