80 resultados para verteilte Systeme
Resumo:
In der vorliegenden Dissertation wurden kreuzkonjugierte organische Verbindungen basierend auf Diazafluorenmethyliden- sowie Dipyridylmethyliden-Bausteinen synthetisiert, die zum einen photoredoxaktive Metallfragmente komplexieren können und zum anderen erweiterte π-konjugierte Pfade auf der Grundlage von Alkineinheiten ermöglichen. Das kreuzkonjugierte Motiv wurde über die Kupplung von Alkineinheiten an halogenierte Methyliden-Einheiten, den so genannten Dibromolefinen, zugänglich gemacht. Zur Synthese von Dibromolefinen wurden verschiedene Methoden untersucht. Literaturbekannte Methoden wie die Wittig-Reaktion und ihre Modifikationen sowie die Corey-Fuchs-Reaktion konnten für die Diazafluoreneinheit nicht erfolgreich angewendet werden. Bei einer mikrowellenunterstützten Reaktion konnte sowohl ausgehend von Diazafluoren-9-on als auch von Di-2-pyridylketon eine Dibromolefinierung (55 % und 65 %) erreicht werden. Die Eignung der Mikrowellenstrahlung für Dibromolefinierungsreaktionen nach Corey und Fuchs wurde weiterhin an verschiedenen Aldehyden und Ketonen untersucht. In den meisten Fällen konnten gute bis sehr gute Ergebnisse erzielt werden. Durch die erfolgreiche Synthese von Dibromolefinen über Mikrowellensynthese wurde die Realisierung von diversen π-konjugierten Systemen möglich. Dies erfolgte exemplarisch durch die Kupplung der Alkine 5-Ethinyl-2,2’-bipyridin, 1-(Ferrocenylethinyl)-4-(ethinyl)benzol, Tri(tolyl)propin sowie der TIPS- und TMS-Acetylene. Neben der Vielfalt an Möglichkeiten zur Funktionalisierung von Dipyridyl- und Diazafluorenbausteinen zeigte sich zudem, dass sogar räumlich anspruchsvolle Verbindungen wie die geminale angeordneten voluminösen Tri(tolyl)propinyl-Substituenten an der Doppelbindung erfolgreich synthetisiert werden können. Die Koordinationseigenschaften der neu synthetisierten Verbindungen konnten durch Umsetzungen der Diazafluoren- und Dipyridylverbindungen mit PdCl2 und [RuCl2(bpy)2] erfolgreich gezeigt werden. Im Hinblick auf die Herstellung von Funktionsmaterialien eignen sich die Endiin-Strukturmotive aufgrund von diversen Variationsmöglichkeiten wie Koordination von Übergangsmetallen sowie Funktionalisierung der Peripherie gut. Dadurch können die elektronischen Eigenschaften wie die Absorption oder elektrochemische Potentiale der Verbindungen modifiziert werden. Die UV/Vis-Spektren der neu synthetisierten Verbindungen zeigen, dass Absorptionen in längerwelligen Bereichen durch Verlängerung des Konjugationspfades gesteuert werden können. Zudem lassen sich weitere photophysikalische Eigenschaften wie MC-, LC-, LMCT- oder MLCT-Übergänge durch Koordination von Metallen generieren. Die elektrochemischen Potentiale der Dipyridyl- und Diazafluorenbausteine konnten durch Anbindung von verschiedenen Substituenten beeinflusst werden. Es zeigte sich, dass sich die Reduktionswellen im Vergleich zu denen der Ketone zu niedrigeren Potentialen verschieben, wenn Alkine an die Dipyridylmethyliden- und Diazafluorenmethyliden-Bausteine geknüpft wurden. Zudem konnte beobachtet werden, dass die Signale nicht immer reversibel sind. Insbesondere die Dipyridylverbindungen zeichneten sich durch irreversible Reduktionswellen aus. Die Realisierung von π-konjugierten Systemen gelang auch mit cyclischen kohlenstoffbasierten Verbindungen. Über das separat synthetisierte 2,2’-Diethinyltolan konnte eine cyclische Verbindung, ein dehydroannulen-radialenisches System, erfolgreich hergestellt werden. Die Koordination von redoxaktiven Metallzentren wie [Ru(bpy)2] konnte für diese Verbindung ebenfalls erfolgreich gezeigt werden. Die elektronische Wechselwirkung zwischen dem Metallzentrum und dem dehydroannulenischen System könnte sowohl über theoretische Methoden (zeitabhängige Dichtefunktionaltheorie) als auch experimentell wie z. B. über transiente Absorptionsspektroskopie untersucht werden. Diese zukünftig durchzuführenden Untersuchungen können Aufschluss über die Ladungstransferraten und -dauer geben. Im Hinblick auf die Realisierung von Modellverbindungen für molekulare Drähte wurden lineare Systeme basierend auf der Diazafluoreneinheit synthetisiert. Zur Synthese von derartigen Systemen war es zunächst notwendig, die Dibromolefine unsymmetrisch zu alkinylieren. Die unsymmetrische Substitution gestaltete sich als Herausforderung, da eine Einfachkupplung mit einem Acetylen nicht möglich war. In den meisten Fällen wurden zweifach substituierte Spezies mit den identischen Alkinen erhalten. Die besten Ausbeuten konnten durch die konsekutive Zugabe von TIPS-Acetylen und darauffolgend TMS-Acetylen in die Reaktionsmischung erhalten werden. Offenbar spielt der räumliche Anspruch des Erstsubstituenten in diesem Zusammenhang eine Rolle. Die selektive Entschützung der unterschiedlich silylierten Verbindungen erfolgte mit K2CO3 in MeOH/THF (1:1). Die oxidative Homokupplungsreaktion erfolgte ohne Isolierung der entschützten Spezies, da diese instabil ist und zur Polymerisation neigt. Aufgrund der Instabilität der entschützten Spezies sowie möglichen Nebenreaktionen waren die Ausbeuten sowohl bei der TIPS-geschützten Verbindung als auch bei der TTP-geschützten Verbindung gering. Versuche, lineare Systeme von dipyridylbasierten Verbindungen zu erhalten, schlugen fehl. Die π-konjugierten Systeme lassen aufgrund der effektiven Überlappung der beteiligten π-Orbitale hohe Ladungsträgermobilitäten vermuten. Die im Rahmen dieser Arbeit synthetisierten Verbindungen könnten mit Schwefelverbindungen die Anbindung an Elektroden zulassen, worüber die Leitfähigkeiten der Verbindungen gemessen werden könnten.
Resumo:
Es ist bekannt, dass die Umsatzdynamik der organischen Substanz von der Bodenbearbeitungsintensität abhängt. Bis jetzt sind nur wenige Daten zum Einfluss der Bearbeitungsintensität und des Zwischenfruchtanbaus auf C-, N-, und P-Dynamik im Ober- (0-5 cm Tiefe) und Unterboden (5-25 cm Tiefe) von Lössböden verfügbar. Hauptziele dieser Arbeit waren die (i) Quantifizierung des Einflusses von verschiedenen langzeitig durchgeführten Bearbeitungssystemen auf labile, intermediäre, und passive C- und N-Pools; (ii) Quantifizierung des Einflusses dieser Systeme auf P-Fraktionen mit unterschiedlicher Verfügbarkeit für die Pflanzenaufnahme; (iii) Quantifizierung des Einflusses des Zwischenfruchtanbaus in Verbindung mit einer unterschiedlichen Einarbeitungstiefe der der Zwischenfrüchte auf mineralisierbares C und N. Die Ergebnisse des 1. und 2. Teilexperiments basieren auf Untersuchungen von 4 Langzeitfeldexperimenten (LFE) in Ost- und Süddeutschland, die zwischen 1990 und 1997 durch das Institut für Zuckerrübenforschung angelegt wurden. Jedes LFE umfasst 3 Bearbeitungssysteme: konventionelle Bearbeitung (CT), reduzierte Bearbeitung (RT) und Direktsaat (NT). Die Ergebnisse des 3. Teilexperiments basieren auf einem Inkubationsexperiment. Entsprechend den Hauptfragestellungen wurden folgende Untersuchungsergebnisse beschrieben: (i) Im Oberboden von NT wurden höhere labile C-Vorräte gefunden (C: 1.76 t ha-1, N: 166 kg ha-1), verglichen mit CT (C: 0.44 t ha-1, N: 52 kg ha-1). Im Gegensatz dazu waren die labile- C-Vorräte höher im Unterboden von CT mit 2.68 t ha-1 verglichen zu NT mit 2 t ha-1 und RT mit 1.87 t ha-1. Die intermediären C-Vorräte betrugen 73-85% der gesamten organischen C-Vorräte, intermediäre N-Vorräte betrugen 70-95% des Gesamt-N im Ober- und Unterboden und waren vielfach größer als die labilen und passiven C- und N-Vorräte. Nur im Oberboden konnte ein Effekt der Bearbeitungsintensität auf die intermediären N-Pools mit höheren Vorräten unter NT als CT festgestellt werden. Die passiven C- und N-Pools waren eng mit den mineralischen Bodeneigenschaften verbunden und unabhängig vom Bearbeitungssystem. Insgesamt hat sich gezeigt, dass 14 bis 22 Jahre durchgängige Direktsaatverfahren nur im Oberboden zu höheren labilen C- und N-Vorräten führen, verglichen zu konventionellen Systemen. Dies lässt eine tiefenabhängige Stärke der Dynamik der organischen Bodensubstanz vermuten. (ii) Die Konzentration des Gesamt-P (Pt) im Oberboden war höher in NT (792 mg kg-1) und ~15% höher als die Pt-Konzentration in CT (691 mg kg 1). Die Abnahme der Pt-Konzentration mit zunehmender Bodentiefe war höher in NT als in CT. Dies gilt auch für die einzelnen P-Fraktionen, ausgenommen der stabilsten P-Fraktion (residual-P). Generell hatte das Bearbeitungssystem nur einen kleinen Einfluss auf die P-Konzentration mit höheren Pt-Konzentrationen in Böden unter NT als CT. Dies resultiert vermutlich aus der flacheren Einarbeitung der Pflanzenreste als in CT. (iii) Im Zwischenfruchtexperiment war der Biomassezuwachs von Senf am höchsten und nimmt in der Reihenfolge ab (oberirdischer Ertrag in t / ha): Senf (7.0 t ha-1) > Phacelia (5.7 t ha-1) > Ölrettich (4.4 t ha-1). Damit war potentiell mineralisierbares C und N am höchsten in Böden mit Senfbewuchs. Kumulative CO2- und N2O-Emissionen während der Inkubation unterschieden sich nicht signifikant zwischen den Zwischenfruchtvarianten und waren unabhängig von der Verteilung der Pflanzenreste im Boden. Die kumulativen ausgewaschenen mineralisierten N (Nmin)-Vorräte waren in den brachliegenden Böden am höchsten. Die Nmin-Vorräte waren 51-72% niedriger in den Varianten mit Zwischenfrucht und Einarbeitung verglichen zur Brache. In den Varianten ohne Einarbeitung waren die Nmin-Vorräte 36-55% niedriger verglichen zur Brache. Dies weißt auf einen deutlichen Beitrag von Zwischenfrüchten zur Reduzierung von Nitrat-Auswaschung zwischen Winter und Frühjahr hin. Insgesamt führte reduzierte Bearbeitung zu einer Sequestrierung von C und N im Boden und der Zwischenfruchtanbau führte zu reduzierten N-Verlusten. Die P-Verfügbarkeit war höher unter Direktsaat verglichen zur konventionellen Bearbeitung. Diese Ergebnisse resultieren aus den höheren Konzentrationen der OS in den reduzierten, als in den konventionellen Systemen. Die Ergebnisse zeigen deutlich das Potential von reduzierter Bearbeitung zur Sequestrierung von intermediärem C und N zur Reduzierung von klimarelevanten Treibhausgasen. Gleichzeitig steigen die Konzentrationen an pflanzenverfügaren P-Gehalten. Zwischenfrüchte führen auch zu einem Anstieg der C- und N-Vorräte im Boden, offensichtlich unabhängig von der Zwischenfruchtart.
Resumo:
Mit der vorliegenden Arbeit soll ein Beitrag zu einer (empirisch) gehaltvollen Mikrofundierung des Innovationsgeschehens im Rahmen einer evolutorischen Perspektive geleistet werden. Der verhaltensbezogene Schwerpunkt ist dabei, in unterschiedlichem Ausmaß, auf das Akteurs- und Innovationsmodell von Herbert Simon bzw. der Carnegie-School ausgerichtet und ergänzt, spezifiziert und erweitert dieses unter anderem um vertiefende Befunde der Kreativitäts- und Kognitionsforschung bzw. der Psychologie und der Vertrauensforschung sowie auch der modernen Innovationsforschung. zudem Bezug auf einen gesellschaftlich und ökonomisch relevanten Gegenstandsbereich der Innovation, die Umweltinnovation. Die Arbeit ist sowohl konzeptionell als auch empirisch ausgerichtet, zudem findet die Methode der Computersimulation in Form zweier Multi-Agentensysteme Anwendung. Als zusammenfassendes Ergebnis lässt sich im Allgemeinen festhalten, dass Innovationen als hochprekäre Prozesse anzusehen sind, welche auf einer Verbindung von spezifischen Akteursmerkmalen, Akteurskonstellationen und Umfeldbedingungen beruhen, Iterationsschleifen unterliegen (u.a. durch Lernen, Rückkoppelungen und Aufbau von Vertrauen) und Teil eines umfassenderen Handlungs- sowie (im Falle von Unternehmen) Organisationskontextes sind. Das Akteurshandeln und die Interaktion von Akteuren sind dabei Ausgangspunkt für Emergenzen auf der Meso- und der Makroebene. Die Ergebnisse der Analysen der in dieser Arbeit enthaltenen fünf Fachbeiträge zeigen im Speziellen, dass der Ansatz von Herbert Simon bzw. der Carnegie-School eine geeignete theoretische Grundlage zur Erfassung einer prozessorientierten Mikrofundierung des Gegenstandsbereichs der Innovation darstellt und – bei geeigneter Ergänzung und Adaption an den jeweiligen Erkenntnisgegenstand – eine differenzierte Betrachtung unterschiedlicher Arten von Innovationsprozessen und deren akteursbasierten Grundlagen sowohl auf der individuellen Ebene als auch auf Ebene von Unternehmen ermöglicht. Zudem wird deutlich, dass der Ansatz von Herbert Simon bzw. der Carnegie-School mit dem Initiationsmodell einen zusätzlichen Aspekt in die Diskussion einbringt, welcher bislang wenig Aufmerksamkeit fand, jedoch konstitutiv für eine ökonomische Perspektive ist: die Analyse der Bestimmungsgrößen (und des Prozesses) der Entscheidung zur Innovation. Denn auch wenn das Verständnis der Prozesse bzw. der Determinanten der Erstellung, Umsetzung und Diffusion von Innovationen von grundlegender Bedeutung ist, ist letztendlich die Frage, warum und unter welchen Umständen Akteure sich für Innovationen entscheiden, ein zentraler Kernbereich einer ökonomischen Betrachtung. Die Ergebnisse der Arbeit sind auch für die praktische Wirtschaftspolitik von Bedeutung, insbesondere mit Blick auf Innovationsprozesse und Umweltwirkungen.
Resumo:
Mit Hilfe der Vorhersage von Kontexten können z. B. Dienste innerhalb einer ubiquitären Umgebung proaktiv an die Bedürfnisse der Nutzer angepasst werden. Aus diesem Grund hat die Kontextvorhersage einen signifikanten Stellenwert innerhalb des ’ubiquitous computing’. Nach unserem besten Wissen, verwenden gängige Ansätze in der Kontextvorhersage ausschließlich die Kontexthistorie des Nutzers als Datenbasis, dessen Kontexte vorhersagt werden sollen. Im Falle, dass ein Nutzer unerwartet seine gewohnte Verhaltensweise ändert, enthält die Kontexthistorie des Nutzers keine geeigneten Informationen, um eine zuverlässige Kontextvorhersage zu gewährleisten. Daraus folgt, dass Vorhersageansätze, die ausschließlich die Kontexthistorie des Nutzers verwenden, dessen Kontexte vorhergesagt werden sollen, fehlschlagen könnten. Um die Lücke der fehlenden Kontextinformationen in der Kontexthistorie des Nutzers zu schließen, führen wir den Ansatz zur kollaborativen Kontextvorhersage (CCP) ein. Dabei nutzt CCP bestehende direkte und indirekte Relationen, die zwischen den Kontexthistorien der verschiedenen Nutzer existieren können, aus. CCP basiert auf der Singulärwertzerlegung höherer Ordnung, die bereits erfolgreich in bestehenden Empfehlungssystemen eingesetzt wurde. Um Aussagen über die Vorhersagegenauigkeit des CCP Ansatzes treffen zu können, wird dieser in drei verschiedenen Experimenten evaluiert. Die erzielten Vorhersagegenauigkeiten werden mit denen von drei bekannten Kontextvorhersageansätzen, dem ’Alignment’ Ansatz, dem ’StatePredictor’ und dem ’ActiveLeZi’ Vorhersageansatz, verglichen. In allen drei Experimenten werden als Evaluationsbasis kollaborative Datensätze verwendet. Anschließend wird der CCP Ansatz auf einen realen kollaborativen Anwendungsfall, den proaktiven Schutz von Fußgängern, angewendet. Dabei werden durch die Verwendung der kollaborativen Kontextvorhersage Fußgänger frühzeitig erkannt, die potentiell Gefahr laufen, mit einem sich nähernden Auto zu kollidieren. Als kollaborative Datenbasis werden reale Bewegungskontexte der Fußgänger verwendet. Die Bewegungskontexte werden mittels Smartphones, welche die Fußgänger in ihrer Hosentasche tragen, gesammelt. Aus dem Grund, dass Kontextvorhersageansätze in erster Linie personenbezogene Kontexte wie z.B. Standortdaten oder Verhaltensmuster der Nutzer als Datenbasis zur Vorhersage verwenden, werden rechtliche Evaluationskriterien aus dem Recht des Nutzers auf informationelle Selbstbestimmung abgeleitet. Basierend auf den abgeleiteten Evaluationskriterien, werden der CCP Ansatz und weitere bekannte kontextvorhersagende Ansätze bezüglich ihrer Rechtsverträglichkeit untersucht. Die Evaluationsergebnisse zeigen die rechtliche Kompatibilität der untersuchten Vorhersageansätze bezüglich des Rechtes des Nutzers auf informationelle Selbstbestimmung auf. Zum Schluss wird in der Dissertation ein Ansatz für die verteilte und kollaborative Vorhersage von Kontexten vorgestellt. Mit Hilfe des Ansatzes wird eine Möglichkeit aufgezeigt, um den identifizierten rechtlichen Probleme, die bei der Vorhersage von Kontexten und besonders bei der kollaborativen Vorhersage von Kontexten, entgegenzuwirken.
Resumo:
The measurement of feed intake, feeding time and rumination time, summarized by the term feeding behavior, are helpful indicators for early recognition of animals which show deviations in their behavior. The overall objective of this work was the development of an early warning system for inadequate feeding rations and digestive and metabolic disorders, which prevention constitutes the basis for health, performance, and reproduction. In a literature review, the current state of the art and the suitability of different measurement tools to determine feeding behavior of ruminants was discussed. Five measurement methods based on different methodological approaches (visual observance, pressure transducer, electrical switches, electrical deformation sensors and acoustic biotelemetry), and three selected measurement techniques (the IGER Behavior Recorder, the Hi-Tag rumination monitoring system and RumiWatchSystem) were described, assessed and compared to each other within this review. In the second study, the new system for measuring feeding behavior of dairy cows was evaluated. The measurement of feeding behavior ensues through electromyography (EMG). For validation, the feeding behavior of 14 cows was determined by both the EMG system and by visual observation. The high correlation coefficients indicate that the current system is a reliable and suitable tool for monitoring the feeding behavior of dairy cows. The aim of a further study was to compare the DairyCheck (DC) system and two additional measurement systems for measuring rumination behavior in relation to efficiency, reliability and reproducibility, with respect to each other. The two additional systems were labeled as the Lely Qwes HR (HR) sensor, and the RumiWatchSystem (RW). Results of accordance of RW and DC to each other were high. The last study examined whether rumination time (RT) is affected by the onset of calving and if it might be a useful indicator for the prediction of imminent birth. Data analysis referred to the final 72h before the onset of calving, which were divided into twelve 6h-blocks. The results showed that RT was significantly reduced in the final 6h before imminent birth.
Resumo:
Im Rahmen der Dichtefunktionaltheorie wurden Orbitalfunktionale wie z.B. B3LYP entwickelt. Diese lassen sich mit der „optimized effective potential“ – Methode selbstkonsistent auswerten. Während sie früher nur im 1D-Fall genau berechnet werden konnte, entwickelten Kümmel und Perdew eine Methode, bei der das OEP-Problem unter Verwendung einer Differentialgleichung selbstkonsistent gelöst werden kann. In dieser Arbeit wird ein Finite-Elemente-Mehrgitter-Verfahren verwendet, um die entstehenden Gleichungen zu lösen und damit Energien, Dichten und Ionisationsenergien für Atome und zweiatomige Moleküle zu berechnen. Als Orbitalfunktional wird dabei der „exakte Austausch“ verwendet; das Programm ist aber leicht auf jedes beliebige Funktional erweiterbar. Für das Be-Atom ließ sich mit 8.Ordnung –FEM die Gesamtenergien etwa um 2 Größenordnungen genauer berechnen als der Finite-Differenzen-Code von Makmal et al. Für die Eigenwerte und die Eigenschaften der Atome N und Ne wurde die Genauigkeit anderer numerischer Methoden erreicht. Die Rechenzeit wuchs erwartungsgemäß linear mit der Punktzahl. Trotz recht langsamer scf-Konvergenz wurden für das Molekül LiH Genauigkeiten wie bei FD und bei HF um 2-3 Größenordnungen bessere als mit Basismethoden erzielt. Damit zeigt sich, dass auf diese Weise benchmark-Rechnungen durchgeführt werden können. Diese dürften wegen der schnellen Konvergenz über der Punktzahl und dem geringen Zeitaufwand auch auf schwerere Systeme ausweitbar sein.
Resumo:
Self-adaptive software provides a profound solution for adapting applications to changing contexts in dynamic and heterogeneous environments. Having emerged from Autonomic Computing, it incorporates fully autonomous decision making based on predefined structural and behavioural models. The most common approach for architectural runtime adaptation is the MAPE-K adaptation loop implementing an external adaptation manager without manual user control. However, it has turned out that adaptation behaviour lacks acceptance if it does not correspond to a user’s expectations – particularly for Ubiquitous Computing scenarios with user interaction. Adaptations can be irritating and distracting if they are not appropriate for a certain situation. In general, uncertainty during development and at run-time causes problems with users being outside the adaptation loop. In a literature study, we analyse publications about self-adaptive software research. The results show a discrepancy between the motivated application domains, the maturity of examples, and the quality of evaluations on the one hand and the provided solutions on the other hand. Only few publications analysed the impact of their work on the user, but many employ user-oriented examples for motivation and demonstration. To incorporate the user within the adaptation loop and to deal with uncertainty, our proposed solutions enable user participation for interactive selfadaptive software while at the same time maintaining the benefits of intelligent autonomous behaviour. We define three dimensions of user participation, namely temporal, behavioural, and structural user participation. This dissertation contributes solutions for user participation in the temporal and behavioural dimension. The temporal dimension addresses the moment of adaptation which is classically determined by the self-adaptive system. We provide mechanisms allowing users to influence or to define the moment of adaptation. With our solution, users can have full control over the moment of adaptation or the self-adaptive software considers the user’s situation more appropriately. The behavioural dimension addresses the actual adaptation logic and the resulting run-time behaviour. Application behaviour is established during development and does not necessarily match the run-time expectations. Our contributions are three distinct solutions which allow users to make changes to the application’s runtime behaviour: dynamic utility functions, fuzzy-based reasoning, and learning-based reasoning. The foundation of our work is a notification and feedback solution that improves intelligibility and controllability of self-adaptive applications by implementing a bi-directional communication between self-adaptive software and the user. The different mechanisms from the temporal and behavioural participation dimension require the notification and feedback solution to inform users on adaptation actions and to provide a mechanism to influence adaptations. Case studies show the feasibility of the developed solutions. Moreover, an extensive user study with 62 participants was conducted to evaluate the impact of notifications before and after adaptations. Although the study revealed that there is no preference for a particular notification design, participants clearly appreciated intelligibility and controllability over autonomous adaptations.
Resumo:
Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.
Resumo:
Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.
Resumo:
Vortragsfolien eines im Mai 1999 auf einem Datenbankseminar (intern) gehaltenen Vortrags. Zusammenfassung: Der Vortrag fasst anschaulich einige der Themen zusammen, an denen das FG Datenbanken/Interaktive Systeme um das Jahr 2000 (und einige Jahre davor und danach) gearbeitet hat: Navigieren und Editieren von NF2-Tabellen mit dem DB-Editor ESCHER, das Fingerkonzept, Focus/Nimbus-Fragen, erweiterte Transaktionskonzepte für datenbankgestützte synchrone Gruppenarbeit. Die im Ausblick aufgestellte These, wonach visuelle Transaktionen ein attraktives Forschungsthema bleiben, dürfte auch heute noch gelten, zumal die Herausforderungen mobiler Geräte und neuer Interaktionsformen in den letzten Jahren hinzugekommen sind.
Resumo:
Die Wechselwirkungen zwischen Biomolekülen spielen eine zentrale Rolle in der biochemischen und pharmazeutischen Forschung. In der biomolekularen Interaktionsanalyse sind dabei Biosensoren auf Basis des Oberflächenplasmonresonanzeffekts (SPR-Effekt) weitverbreitet. Seit Einführung der ersten kommerziellen SPR-Biosensoren Anfang der 1990er Jahre wurden verschiedenste Messanordnungen sowie Materialsysteme mit dem Ziel einer möglichst hohen Empfindlichkeit getestet. Eine Möglichkeit zur Steigerung der Empfindlichkeit klassischer SPR-Systeme bieten sogenannte magneto-optische SPR-Biosensoren (MOSPR-Biosensoren). Grundlage der Empfindlichkeitssteigerung ist die gleichzeitige Messung des SPR-Effekts und des transversalen magneto-optischen KERR-Effekts (tMOKE). Bisherige Untersuchungen haben sich meist auf den Einfluss der Magnetisierung freier ferromagnetischer Schichten beschränkt. Im Rahmen dieser Arbeit wurden erstmals austauschverschobene Dünnschichtsysteme (EB-Systeme), eine Kombination aus Ferromagnet und Antiferromagnet, hinsichtlich ihrer Eignung für SPR- und MOSPR-basierte biosensorische Anwendungen untersucht. Aufgrund der remanenten Magnetisierung der ferromagnetischen Schicht und ihrer magnetischen Strukturierbarkeit sind EB-Systeme eine hochinteressante Plattform zur Realisierung neuer Biosensorkonzepte. Zur Reduzierung der stark dämpfendenden Wirkung magnetischer Materialien wurde das hier betrachtete IrMn/Co EB-System zwischen zwei Goldschichten eingebettet. Eine Gegenüberstellung optimierter Au/ IrMn/Co/Au-Systeme mit einem reinen Au-System, wie es typischerweise in kommerziellen SPR-basierten Biosensoren eingesetzt wird, demonstriert, dass mit den entwickelten EB-Systemen vergleichbare Empfindlichkeiten in SPR-Sensor-Anwendungen erreicht werden können. Die magneto-optische Aktivität der untersuchten Dünnschichtsysteme liegt im Bereich der Literaturwerte für Au/Co/Au-Systeme, mit denen erhöhte Empfindlichkeiten gegenüber Standard-SPR-Biosensoren realisiert wurden. Auf Grundlage magnetisch strukturierter Au/IrMn/Co/Au-Systeme wurden neue Biosensorkonzepte entwickelt und getestet. Erste Experimente belegen, dass mit diesen Schichtsystemen eine gleichzeitige Detektion der magnetisierungsabhängigen Reflektivitäten in ortsauflösenden MOSPR-Messungen möglich ist. Eine solche Messanordnung profitiert von der erhöhten Empfindlichkeit MOSPR-basierter Biosensoren, hohen Messgeschwindigkeiten und einem verbesserten Signal-Rausch-Verhältnis. Weiterhin wurde der domänenwandassistierte Transport (DOWMAT) superparamagnetischer Partikel über der Oberfläche eines exemplarischen EB-Systems, zur Sensorintegration von Misch-, Reinigungs- und Aufkonzentrationsfunktionen erfolgreich getestet. Die Ergebnisse demonstrieren, dass ein Transport von Partikelreihen mit hohen Geschwindigkeiten bei moderaten externen Magnetfeldern über den entwickelten Schichtsystemen möglich ist. Die Agglomeration der Partikel wird dabei intrinsisch vermieden. Diese Beobachtungen verdeutlichen die Vorzüge des DOWMAT-Mechanismus für biosensorische Anwendungen. Die präsentierten Untersuchungen bilden die Grundlage auf dem Weg zur Umsetzung neuer vielversprechender Biosensorkonzepte, die eine Schlüsselfunktion in der medizinischen point-of-care-Diagnostik bei der Detektion kleinster Konzentrationen krankheitsrelevanter Biomarker einnehmen können.
Resumo:
Zusammenfassung: Ziel der Arbeit ist den Sinn von Schauder philosophisch zu erhellen. An einem Einzelphänomen, wie es so bisher nicht behandelt wurde, wird zugleich das Geflecht von Affekt/Emotion/Gefühl, gestützt auf Hegel, Heidegger, Husserl, Freud und Lacan, in immer neuen Ansätzen kritisch reflektiert und Zug um Zug mit Derrida dekonstruiert. In einem Textverfahren, das sich auch grafisch durch gegenübergestellte Kolumnen auszeichnet, werden heterogene Ansätze zum Sinn von Schauder mit dekonstruktivistischen Einsichten konfrontiert. Die Ansätze, Schauder über Datum, Begriff, Phänomen oder Strukturelement bestimmen zu wollen, durchdringen sich dabei mit denjenigen, die sich einer solchen Bestimmung entziehen (Hegels Negativität, Heideggers Seinsentzug oder Lacans Signifikantenmangel). Am Fokus Schauder, an dem sich das Fiktive einer mit sich selbst identischen Präsenz besonders eindringlich darstellt, werden so spezifische Aporien der Metaphysik der Präsenz entfaltet und die Geschlossenheit logozentristischer Systeme in die Bewegung einer anderen Öffnung und Schließung im Sinn der Schrift bzw. des allgemeinen Textes transformiert. Neben der différance, dem Entzug der Metapher, dem Supplement und dem Gespenstischen stützt sich die Arbeit auf die Iterabilität, bei der im selben Zug die Identität des Sinns gestiftet und zerstreut wird (Dissemination). Im Kapitel Piloerection werden Ambivalenzen und Paradoxien des Schauders am Beispiel von computergestützten empirisch-psychologischen Studien aufgezeigt. Im Kapitel Atopologie des Schauders prädikative, propositionale und topologische Bedingungen zum Sinn von Schauder analysiert und dekonstruiert. Ebenso, im Folgekapitel Etymon, etymologische und technisch-mediale Bedingungen. Im Schlußkapitel Maß, Anmaß, Unmaß der Empfindung des Schauders wird am Beispiel der konkreten Beiträge zum Schauder von Aristoteles, Kant, Fechner, Otto, Klages, Lorenz und Adorno aufgezeigt, dass (1) ein Schauder nicht von einem Außen aus an-gemessen werden kann, (2) sich im Schauder die metaphysische Opposition von Fiktion und Realität in einer Unentscheidbarkeit zerstreut, (3) dass trotz der Heterogenität der Ansätze in diesen Beiträgen eine Komplizenschaft zum Ausdruck kommt: ein Begehren nach Präsenz, das durch den Ausschluß des Anderen zugleich die Gewalt des Einen produziert, (4) dass der Signifikant Schauder, der selbst in Abwesenheit eines Referenten, eines bestimmten Signifikats, einer aktuellen Bedeutungsintention, eines Senders oder Empfängers funktioniert, als verändertes Zurückbleiben eines differenzieller Zeichens betrachtet werden muss, als Effekt von Spuren, die sich nur in ihrem eigenen Auslöschen ereignen. Die Arbeit schließt mit dem Vorschlag, Spüren jenseits von Arché, Telos oder Eschaton, jenseits eines Phallogozentrismus in der derridaschen Spur zu denken. Nicht zuletzt über diese Pfropfung, wie sie im Französischen [trace] so nicht möglich ist, schließt sie als deutschsprachiger Beitrag an sein Werk an.
Resumo:
Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.
Resumo:
Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.