73 resultados para Materialfluss-Systeme


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die zunehmende Vernetzung der Informations- und Kommunikationssysteme führt zu einer weiteren Erhöhung der Komplexität und damit auch zu einer weiteren Zunahme von Sicherheitslücken. Klassische Schutzmechanismen wie Firewall-Systeme und Anti-Malware-Lösungen bieten schon lange keinen Schutz mehr vor Eindringversuchen in IT-Infrastrukturen. Als ein sehr wirkungsvolles Instrument zum Schutz gegenüber Cyber-Attacken haben sich hierbei die Intrusion Detection Systeme (IDS) etabliert. Solche Systeme sammeln und analysieren Informationen von Netzwerkkomponenten und Rechnern, um ungewöhnliches Verhalten und Sicherheitsverletzungen automatisiert festzustellen. Während signatur-basierte Ansätze nur bereits bekannte Angriffsmuster detektieren können, sind anomalie-basierte IDS auch in der Lage, neue bisher unbekannte Angriffe (Zero-Day-Attacks) frühzeitig zu erkennen. Das Kernproblem von Intrusion Detection Systeme besteht jedoch in der optimalen Verarbeitung der gewaltigen Netzdaten und der Entwicklung eines in Echtzeit arbeitenden adaptiven Erkennungsmodells. Um diese Herausforderungen lösen zu können, stellt diese Dissertation ein Framework bereit, das aus zwei Hauptteilen besteht. Der erste Teil, OptiFilter genannt, verwendet ein dynamisches "Queuing Concept", um die zahlreich anfallenden Netzdaten weiter zu verarbeiten, baut fortlaufend Netzverbindungen auf, und exportiert strukturierte Input-Daten für das IDS. Den zweiten Teil stellt ein adaptiver Klassifikator dar, der ein Klassifikator-Modell basierend auf "Enhanced Growing Hierarchical Self Organizing Map" (EGHSOM), ein Modell für Netzwerk Normalzustand (NNB) und ein "Update Model" umfasst. In dem OptiFilter werden Tcpdump und SNMP traps benutzt, um die Netzwerkpakete und Hostereignisse fortlaufend zu aggregieren. Diese aggregierten Netzwerkpackete und Hostereignisse werden weiter analysiert und in Verbindungsvektoren umgewandelt. Zur Verbesserung der Erkennungsrate des adaptiven Klassifikators wird das künstliche neuronale Netz GHSOM intensiv untersucht und wesentlich weiterentwickelt. In dieser Dissertation werden unterschiedliche Ansätze vorgeschlagen und diskutiert. So wird eine classification-confidence margin threshold definiert, um die unbekannten bösartigen Verbindungen aufzudecken, die Stabilität der Wachstumstopologie durch neuartige Ansätze für die Initialisierung der Gewichtvektoren und durch die Stärkung der Winner Neuronen erhöht, und ein selbst-adaptives Verfahren eingeführt, um das Modell ständig aktualisieren zu können. Darüber hinaus besteht die Hauptaufgabe des NNB-Modells in der weiteren Untersuchung der erkannten unbekannten Verbindungen von der EGHSOM und der Überprüfung, ob sie normal sind. Jedoch, ändern sich die Netzverkehrsdaten wegen des Concept drif Phänomens ständig, was in Echtzeit zur Erzeugung nicht stationärer Netzdaten führt. Dieses Phänomen wird von dem Update-Modell besser kontrolliert. Das EGHSOM-Modell kann die neuen Anomalien effektiv erkennen und das NNB-Model passt die Änderungen in Netzdaten optimal an. Bei den experimentellen Untersuchungen hat das Framework erfolgversprechende Ergebnisse gezeigt. Im ersten Experiment wurde das Framework in Offline-Betriebsmodus evaluiert. Der OptiFilter wurde mit offline-, synthetischen- und realistischen Daten ausgewertet. Der adaptive Klassifikator wurde mit dem 10-Fold Cross Validation Verfahren evaluiert, um dessen Genauigkeit abzuschätzen. Im zweiten Experiment wurde das Framework auf einer 1 bis 10 GB Netzwerkstrecke installiert und im Online-Betriebsmodus in Echtzeit ausgewertet. Der OptiFilter hat erfolgreich die gewaltige Menge von Netzdaten in die strukturierten Verbindungsvektoren umgewandelt und der adaptive Klassifikator hat sie präzise klassifiziert. Die Vergleichsstudie zwischen dem entwickelten Framework und anderen bekannten IDS-Ansätzen zeigt, dass der vorgeschlagene IDSFramework alle anderen Ansätze übertrifft. Dies lässt sich auf folgende Kernpunkte zurückführen: Bearbeitung der gesammelten Netzdaten, Erreichung der besten Performanz (wie die Gesamtgenauigkeit), Detektieren unbekannter Verbindungen und Entwicklung des in Echtzeit arbeitenden Erkennungsmodells von Eindringversuchen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Enterprise-Resource-Planning-Systeme (ERP-Systeme) bilden für die meisten mittleren und großen Unternehmen einen essentiellen Bestandteil ihrer IT-Landschaft zur Verwaltung von Geschäftsdaten und Geschäftsprozessen. Geschäftsdaten werden in ERP-Systemen in Form von Geschäftsobjekten abgebildet. Ein Geschäftsobjekt kann mehrere Attribute enthalten und über Assoziationen zu anderen Geschäftsobjekten einen Geschäftsobjektgraphen aufspannen. Existierende Schnittstellen ermöglichen die Abfrage von Geschäftsobjekten, insbesondere mit Hinblick auf deren Attribute. Die Abfrage mit Bezug auf ihre Position innerhalb des Geschäftsobjektgraphen ist jedoch über diese Schnittstellen häufig nur sehr schwierig zu realisieren. Zur Vereinfachung solcher Anfragen können semantische Technologien, wie RDF und die graphbasierte Abfragesprache SPARQL, verwendet werden. SPARQL ermöglicht eine wesentlich kompaktere und intuitivere Formulierung von Anfragen gegen Geschäftsobjektgraphen, als es mittels der existierenden Schnittstellen möglich ist. Die Motivation für diese Arbeit ist die Vereinfachung bestimmter Anfragen gegen das im Rahmen dieser Arbeit betrachtete SAP ERP-System unter Verwendung von SPARQL. Zur Speicherung von Geschäftsobjekten kommen in ERP-Systemen typischerweise relationale Datenbanken zum Einsatz. Die Bereitstellung von SPARQL-Endpunkten auf Basis von relationalen Datenbanken ist ein seit längerem untersuchtes Gebiet. Es existieren verschiedene Ansätze und Tools, welche die Anfrage mittels SPARQL erlauben. Aufgrund der Komplexität, der Größe und der Änderungshäufigkeit des ERP-Datenbankschemas können solche Ansätze, die direkt auf dem Datenbankschema aufsetzen, nicht verwendet werden. Ein praktikablerer Ansatz besteht darin, den SPARQL-Endpunkt auf Basis existierender Schnittstellen zu realisieren. Diese sind weniger komplex als das Datenbankschema, da sie die direkte Abfrage von Geschäftsobjekten ermöglichen. Dadurch wird die Definition des Mappings erheblich vereinfacht. Das ERP-System bietet mehrere Schnittstellen an, die sich hinsichtlich des Aufbaus, der Zielsetzung und der verwendeten Technologie unterscheiden. Unter anderem wird eine auf OData basierende Schnittstelle zur Verfügung gestellt. OData ist ein REST-basiertes Protokoll zur Abfrage und Manipulation von Daten. Von den bereitgestellten Schnittstellen weist das OData-Interface gegenüber den anderen Schnittstellen verschiedene Vorteile bei Realisierung eines SPARQL-Endpunktes auf. Es definiert eine Abfragesprache und einen Link-Adressierungsmechanismus, mit dem die zur Beantwortung einer Anfrage benötigten Service-Aufrufe und die zu übertragende Datenmenge erheblich reduziert werden können. Das Ziel dieser Arbeit besteht in der Entwicklung eines Verfahrens zur Realisierung eines SPARQL-Endpunktes auf Basis von OData-Services. Dazu wird zunächst eine Architektur vorgestellt, die als Grundlage für die Implementierung eines entsprechenden Systems dienen kann. Ausgehend von dieser Architektur, werden die durch den aktuellen Forschungsstand noch nicht abgedeckten Bereiche ermittelt. Nach bestem Wissen ist diese Arbeit die erste, welche die Abfrage von OData-Schnittstellen mittels SPARQL untersucht. Dabei wird als Teil dieser Arbeit ein neuartiges Konzept zur semantischen Beschreibung von OData-Services vorgestellt. Dieses ermöglicht die Definition von Abbildungen der von den Services bereitgestellten Daten auf RDF-Graphen. Aufbauend auf den Konzepten zur semantischen Beschreibung wird eine Evaluierungssemantik erarbeitet, welche die Auflösung von Ausdrücken der SPARQL-Algebra gegen semantisch annotierte OData-Services definiert. Dabei werden die Daten aller OData-Services ermittelt, die zur vollständigen Abarbeitung einer Anfrage benötigt werden. Zur Abfrage der relevanten Daten wurden Konzepte zur Erzeugung der entsprechenden OData-URIs entwickelt. Das vorgestellte Verfahren wurde prototypisch implementiert und anhand zweier Anwendungsfälle für die im betrachteten Szenario maßgeblichen Servicemengen evaluiert. Mit den vorgestellten Konzepten besteht nicht nur die Möglichkeit, einen SPARQL-Endpunkt für ein ERP-System zu realisieren, vielmehr kann jede Datenquelle, die eine OData-Schnittstelle anbietet, mittels SPARQL angefragt werden. Dadurch werden große Datenmengen, die bisher für die Verarbeitung mittels semantischer Technologien nicht zugänglich waren, für die Integration mit dem Semantic Web verfügbar gemacht. Insbesondere können auch Datenquellen, deren Integration miteinander bisher nicht oder nur schwierig möglich war, über Systeme zur föderierten Abfrage miteinander integriert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Vortragsfolien eines im Mai 1999 auf einem Datenbankseminar (intern) gehaltenen Vortrags. Zusammenfassung: Der Vortrag fasst anschaulich einige der Themen zusammen, an denen das FG Datenbanken/Interaktive Systeme um das Jahr 2000 (und einige Jahre davor und danach) gearbeitet hat: Navigieren und Editieren von NF2-Tabellen mit dem DB-Editor ESCHER, das Fingerkonzept, Focus/Nimbus-Fragen, erweiterte Transaktionskonzepte für datenbankgestützte synchrone Gruppenarbeit. Die im Ausblick aufgestellte These, wonach visuelle Transaktionen ein attraktives Forschungsthema bleiben, dürfte auch heute noch gelten, zumal die Herausforderungen mobiler Geräte und neuer Interaktionsformen in den letzten Jahren hinzugekommen sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Wechselwirkungen zwischen Biomolekülen spielen eine zentrale Rolle in der biochemischen und pharmazeutischen Forschung. In der biomolekularen Interaktionsanalyse sind dabei Biosensoren auf Basis des Oberflächenplasmonresonanzeffekts (SPR-Effekt) weitverbreitet. Seit Einführung der ersten kommerziellen SPR-Biosensoren Anfang der 1990er Jahre wurden verschiedenste Messanordnungen sowie Materialsysteme mit dem Ziel einer möglichst hohen Empfindlichkeit getestet. Eine Möglichkeit zur Steigerung der Empfindlichkeit klassischer SPR-Systeme bieten sogenannte magneto-optische SPR-Biosensoren (MOSPR-Biosensoren). Grundlage der Empfindlichkeitssteigerung ist die gleichzeitige Messung des SPR-Effekts und des transversalen magneto-optischen KERR-Effekts (tMOKE). Bisherige Untersuchungen haben sich meist auf den Einfluss der Magnetisierung freier ferromagnetischer Schichten beschränkt. Im Rahmen dieser Arbeit wurden erstmals austauschverschobene Dünnschichtsysteme (EB-Systeme), eine Kombination aus Ferromagnet und Antiferromagnet, hinsichtlich ihrer Eignung für SPR- und MOSPR-basierte biosensorische Anwendungen untersucht. Aufgrund der remanenten Magnetisierung der ferromagnetischen Schicht und ihrer magnetischen Strukturierbarkeit sind EB-Systeme eine hochinteressante Plattform zur Realisierung neuer Biosensorkonzepte. Zur Reduzierung der stark dämpfendenden Wirkung magnetischer Materialien wurde das hier betrachtete IrMn/Co EB-System zwischen zwei Goldschichten eingebettet. Eine Gegenüberstellung optimierter Au/ IrMn/Co/Au-Systeme mit einem reinen Au-System, wie es typischerweise in kommerziellen SPR-basierten Biosensoren eingesetzt wird, demonstriert, dass mit den entwickelten EB-Systemen vergleichbare Empfindlichkeiten in SPR-Sensor-Anwendungen erreicht werden können. Die magneto-optische Aktivität der untersuchten Dünnschichtsysteme liegt im Bereich der Literaturwerte für Au/Co/Au-Systeme, mit denen erhöhte Empfindlichkeiten gegenüber Standard-SPR-Biosensoren realisiert wurden. Auf Grundlage magnetisch strukturierter Au/IrMn/Co/Au-Systeme wurden neue Biosensorkonzepte entwickelt und getestet. Erste Experimente belegen, dass mit diesen Schichtsystemen eine gleichzeitige Detektion der magnetisierungsabhängigen Reflektivitäten in ortsauflösenden MOSPR-Messungen möglich ist. Eine solche Messanordnung profitiert von der erhöhten Empfindlichkeit MOSPR-basierter Biosensoren, hohen Messgeschwindigkeiten und einem verbesserten Signal-Rausch-Verhältnis. Weiterhin wurde der domänenwandassistierte Transport (DOWMAT) superparamagnetischer Partikel über der Oberfläche eines exemplarischen EB-Systems, zur Sensorintegration von Misch-, Reinigungs- und Aufkonzentrationsfunktionen erfolgreich getestet. Die Ergebnisse demonstrieren, dass ein Transport von Partikelreihen mit hohen Geschwindigkeiten bei moderaten externen Magnetfeldern über den entwickelten Schichtsystemen möglich ist. Die Agglomeration der Partikel wird dabei intrinsisch vermieden. Diese Beobachtungen verdeutlichen die Vorzüge des DOWMAT-Mechanismus für biosensorische Anwendungen. Die präsentierten Untersuchungen bilden die Grundlage auf dem Weg zur Umsetzung neuer vielversprechender Biosensorkonzepte, die eine Schlüsselfunktion in der medizinischen point-of-care-Diagnostik bei der Detektion kleinster Konzentrationen krankheitsrelevanter Biomarker einnehmen können.

Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zusammenfassung: Ziel der Arbeit ist den Sinn von Schauder philosophisch zu erhellen. An einem Einzelphänomen, wie es so bisher nicht behandelt wurde, wird zugleich das Geflecht von Affekt/Emotion/Gefühl, gestützt auf Hegel, Heidegger, Husserl, Freud und Lacan, in immer neuen Ansätzen kritisch reflektiert und Zug um Zug mit Derrida dekonstruiert. In einem Textverfahren, das sich auch grafisch durch gegenübergestellte Kolumnen auszeichnet, werden heterogene Ansätze zum Sinn von Schauder mit dekonstruktivistischen Einsichten konfrontiert. Die Ansätze, Schauder über Datum, Begriff, Phänomen oder Strukturelement bestimmen zu wollen, durchdringen sich dabei mit denjenigen, die sich einer solchen Bestimmung entziehen (Hegels Negativität, Heideggers Seinsentzug oder Lacans Signifikantenmangel). Am Fokus Schauder, an dem sich das Fiktive einer mit sich selbst identischen Präsenz besonders eindringlich darstellt, werden so spezifische Aporien der Metaphysik der Präsenz entfaltet und die Geschlossenheit logozentristischer Systeme in die Bewegung einer anderen Öffnung und Schließung im Sinn der Schrift bzw. des allgemeinen Textes transformiert. Neben der différance, dem Entzug der Metapher, dem Supplement und dem Gespenstischen stützt sich die Arbeit auf die Iterabilität, bei der im selben Zug die Identität des Sinns gestiftet und zerstreut wird (Dissemination). Im Kapitel Piloerection werden Ambivalenzen und Paradoxien des Schauders am Beispiel von computergestützten empirisch-psychologischen Studien aufgezeigt. Im Kapitel Atopologie des Schauders prädikative, propositionale und topologische Bedingungen zum Sinn von Schauder analysiert und dekonstruiert. Ebenso, im Folgekapitel Etymon, etymologische und technisch-mediale Bedingungen. Im Schlußkapitel Maß, Anmaß, Unmaß der Empfindung des Schauders wird am Beispiel der konkreten Beiträge zum Schauder von Aristoteles, Kant, Fechner, Otto, Klages, Lorenz und Adorno aufgezeigt, dass (1) ein Schauder nicht von einem Außen aus an-gemessen werden kann, (2) sich im Schauder die metaphysische Opposition von Fiktion und Realität in einer Unentscheidbarkeit zerstreut, (3) dass trotz der Heterogenität der Ansätze in diesen Beiträgen eine Komplizenschaft zum Ausdruck kommt: ein Begehren nach Präsenz, das durch den Ausschluß des Anderen zugleich die Gewalt des Einen produziert, (4) dass der Signifikant Schauder, der selbst in Abwesenheit eines Referenten, eines bestimmten Signifikats, einer aktuellen Bedeutungs­intention, eines Sen­ders oder Empfängers funktioniert, als verändertes Zu­rückbleiben eines differenzieller Zeichens betrachtet werden muss, als Effekt von Spuren, die sich nur in ihrem eige­nen Auslöschen ereignen. Die Arbeit schließt mit dem Vorschlag, Spüren jenseits von Arché, Telos oder Eschaton, jenseits eines Phallogozentrismus in der derridaschen Spur zu denken. Nicht zuletzt über diese Pfropfung, wie sie im Französischen [trace] so nicht möglich ist, schließt sie als deutschsprachiger Beitrag an sein Werk an.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es ist allgemein bekannt, dass sich zwei gegebene Systeme spezieller Funktionen durch Angabe einer Rekursionsgleichung und entsprechend vieler Anfangswerte identifizieren lassen, denn computeralgebraisch betrachtet hat man damit eine Normalform vorliegen. Daher hat sich die interessante Forschungsfrage ergeben, Funktionensysteme zu identifizieren, die über ihre Rodriguesformel gegeben sind. Zieht man den in den 1990er Jahren gefundenen Zeilberger-Algorithmus für holonome Funktionenfamilien hinzu, kann die Rodriguesformel algorithmisch in eine Rekursionsgleichung überführt werden. Falls die Funktionenfamilie überdies hypergeometrisch ist, sogar laufzeiteffizient. Um den Zeilberger-Algorithmus überhaupt anwenden zu können, muss es gelingen, die Rodriguesformel in eine Summe umzuwandeln. Die vorliegende Arbeit beschreibt die Umwandlung einer Rodriguesformel in die genannte Normalform für den kontinuierlichen, den diskreten sowie den q-diskreten Fall vollständig. Das in Almkvist und Zeilberger (1990) angegebene Vorgehen im kontinuierlichen Fall, wo die in der Rodriguesformel auftauchende n-te Ableitung über die Cauchysche Integralformel in ein komplexes Integral überführt wird, zeigt sich im diskreten Fall nun dergestalt, dass die n-te Potenz des Vorwärtsdifferenzenoperators in eine Summenschreibweise überführt wird. Die Rekursionsgleichung aus dieser Summe zu generieren, ist dann mit dem diskreten Zeilberger-Algorithmus einfach. Im q-Fall wird dargestellt, wie Rekursionsgleichungen aus vier verschiedenen q-Rodriguesformeln gewonnen werden können, wobei zunächst die n-te Potenz der jeweiligen q-Operatoren in eine Summe überführt wird. Drei der vier Summenformeln waren bislang unbekannt. Sie wurden experimentell gefunden und per vollständiger Induktion bewiesen. Der q-Zeilberger-Algorithmus erzeugt anschließend aus diesen Summen die gewünschte Rekursionsgleichung. In der Praxis ist es sinnvoll, den schnellen Zeilberger-Algorithmus anzuwenden, der Rekursionsgleichungen für bestimmte Summen über hypergeometrische Terme ausgibt. Auf dieser Fassung des Algorithmus basierend wurden die Überlegungen in Maple realisiert. Es ist daher sinnvoll, dass alle hier aufgeführten Prozeduren, die aus kontinuierlichen, diskreten sowie q-diskreten Rodriguesformeln jeweils Rekursionsgleichungen erzeugen, an den hypergeometrischen Funktionenfamilien der klassischen orthogonalen Polynome, der klassischen diskreten orthogonalen Polynome und an der q-Hahn-Klasse des Askey-Wilson-Schemas vollständig getestet werden. Die Testergebnisse liegen tabellarisch vor. Ein bedeutendes Forschungsergebnis ist, dass mit der im q-Fall implementierten Prozedur zur Erzeugung einer Rekursionsgleichung aus der Rodriguesformel bewiesen werden konnte, dass die im Standardwerk von Koekoek/Lesky/Swarttouw(2010) angegebene Rodriguesformel der Stieltjes-Wigert-Polynome nicht korrekt ist. Die richtige Rodriguesformel wurde experimentell gefunden und mit den bereitgestellten Methoden bewiesen. Hervorzuheben bleibt, dass an Stelle von Rekursionsgleichungen analog Differential- bzw. Differenzengleichungen für die Identifikation erzeugt wurden. Wie gesagt gehört zu einer Normalform für eine holonome Funktionenfamilie die Angabe der Anfangswerte. Für den kontinuierlichen Fall wurden umfangreiche, in dieser Gestalt in der Literatur noch nie aufgeführte Anfangswertberechnungen vorgenommen. Im diskreten Fall musste für die Anfangswertberechnung zur Differenzengleichung der Petkovsek-van-Hoeij-Algorithmus hinzugezogen werden, um die hypergeometrischen Lösungen der resultierenden Rekursionsgleichungen zu bestimmen. Die Arbeit stellt zu Beginn den schnellen Zeilberger-Algorithmus in seiner kontinuierlichen, diskreten und q-diskreten Variante vor, der das Fundament für die weiteren Betrachtungen bildet. Dabei wird gebührend auf die Unterschiede zwischen q-Zeilberger-Algorithmus und diskretem Zeilberger-Algorithmus eingegangen. Bei der praktischen Umsetzung wird Bezug auf die in Maple umgesetzten Zeilberger-Implementationen aus Koepf(1998/2014) genommen. Die meisten der umgesetzten Prozeduren werden im Text dokumentiert. Somit wird ein vollständiges Paket an Algorithmen bereitgestellt, mit denen beispielsweise Formelsammlungen für hypergeometrische Funktionenfamilien überprüft werden können, deren Rodriguesformeln bekannt sind. Gleichzeitig kann in Zukunft für noch nicht erforschte hypergeometrische Funktionenklassen die beschreibende Rekursionsgleichung erzeugt werden, wenn die Rodriguesformel bekannt ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Ziel dieser Dissertation ist es, eine Klasse interferometrischer Messgeräte zu charakterisieren und weiter zu entwickeln. Die Modulation der optischen Weglänge (OPLM) im Referenzarm eines interferometrischen Messsystems ist ein anpassungsfähiger Ansatz. Sie ist zur Messung von Oberflächenprofilen mit einer Auflösung bis in den sub-nm-Bereich bei einem Messbereich von bis zu 100 Mikrometer geeignet. Wird ein statisches Messobjekt gemessen, tritt durch die Modulation im Referenzarm am Detektor ein periodisches Interferenzmuster auf. Dies ist in der unten stehenden Abbildung schematisch dargestellt. Bei einer Veränderung des Abstandes zwischen Objekt und Messgerät kann aus der Phasen- und/oder Hüllkurvenverschiebung im Interferenzmuster die Abstandsänderung abgeleitet werden.Im Rahmen der Arbeit sind zwei funktionsfähige OPLM-Messsysteme entwickelt, aufgebaut und getestet worden. Diese demonstrieren, dass der OPLM-Ansatz ein breites Spektrum an Anwendungen durch eine optische Messung abdecken kann. Allerdings zeigen sich an den Messsystemen auch die Limitierungen des OPLM-Ansatzes. Die Systeme basieren auf einer Punktmessung mittels einer fasergekoppelten Sonde sowie auf einer linienförmigen Messung durch eine Zeilenkamera. Um eine hohe laterale Auflösung zu erzielen, wird die Zeilenkamera mit einem Mikroskop kombiniert. Damit flächenhaft gemessen werden kann, ist es notwendig, Messobjekt und Sensor zueinander zu verschieben. Daher wird eine Theorie entwickelt, unter welchen Randbedingungen bewegte Objekte von einem OPLM-Messsystem aufgelöst werden können. Die Theorie wird anschließend experimentell überprüft und bestätigt. Für die Auswertung der bei der Modulation der optischen Weglänge entstehenden Interferenzen existieren bereits einige erprobte Algorithmen, welche auf ihre Eignung hin untersucht und mit selbst entwickelten Algorithmen verglichen werden. Auch wird darauf eingegangen, welches die zentralen Herausforderungen bei der Planung von OPLM-Interferometern sind und wie sich insbesondere die Wahl des Aktors für die OPLM auf das gesamte Messsystem auswirkt. Bei den beiden Messsystemen werden jeweils wichtige Komponenten wie analoge Elektronik und Aktorik sowie ihre Funktionsweise erläutert. Es wird detailliert beschrieben, wie ein OPLM-Messsystem charakterisiert und kalibriert werden muss, um möglichst zuverlässige Messwerte zu liefern. Abschließend werden die Möglichkeiten der beiden entwickelten Systeme durch Beispielmessungen demonstriert, sowie ihre Messgenauigkeit charakterisiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Miniaturisierung von konventioneller Labor- und Analysetechnik nimmt eine zentrale Rolle im Bereich der allgemeinen Lebenswissenschaften und medizinischen Diagnostik ein. Neuartige und preiswerte Technologieplattformen wie Lab-on-a-Chip (LOC) oder Mikrototalanalysesysteme (µTAS) versprechen insbesondere im Bereich der Individualmedizin einen hohen gesellschaftlichen Nutzen zur frühzeitigen und nichtinvasiven Diagnose krankheitsspezifischer Indikatoren. Durch den patientennahen Einsatz preiswerter und verlässlicher Mikrochips auf Basis hoher Qualitätsstandards entfallen kostspielige und zeitintensive Zentrallaboranalysen, was gleichzeitig Chancen für den globalen Einsatz - speziell in Schwellen- und Entwicklungsländern - bietet. Die technischen Herausforderungen bei der Realisierung moderner LOC-Systeme sind in der kontrollierten und verlässlichen Handhabung kleinster Flüssigkeitsmengen sowie deren diagnostischem Nachweis begründet. In diesem Kontext wird der erfolgreichen Integration eines fernsteuerbaren Transports von biokompatiblen, magnetischen Mikro- und Nanopartikeln eine Schlüsselrolle zugesprochen. Die Ursache hierfür liegt in der vielfältigen Einsetzbarkeit, die durch die einzigartigen Materialeigenschaften begründet sind. Diese reichen von der beschleunigten, aktiven Durchmischung mikrofluidischer Substanzvolumina über die Steigerung der molekularen Interaktionsrate in Biosensoren bis hin zur Isolation und Aufreinigung von krankheitsspezifischen Indikatoren. In der Literatur beschriebene Ansätze basieren auf der dynamischen Transformation eines makroskopischen, zeitabhängigen externen Magnetfelds in eine mikroskopisch veränderliche potentielle Energielandschaft oberhalb magnetisch strukturierter Substrate, woraus eine gerichtete und fernsteuerbare Partikelbewegung resultiert. Zentrale Kriterien, wie die theoretische Modellierung und experimentelle Charakterisierung der magnetischen Feldlandschaft in räumlicher Nähe zur Oberfläche der strukturierten Substrate sowie die theoretische Beschreibung der Durchmischungseffekte, wurden jedoch bislang nicht näher beleuchtet, obwohl diese essentiell für ein detailliertes Verständnis der zu Grunde liegenden Mechanismen und folglich für einen Markteintritt zukünftiger Geräte sind. Im Rahmen der vorgestellten Arbeit wurde daher ein neuartiger Ansatz zur erfolgreichen Integration eines Konzepts zum fernsteuerbaren Transport magnetischer Partikel zur Anwendung in modernen LOC-Systemen unter Verwendung von magnetisch strukturierten Exchange-Bias (EB) Dünnschichtsystemen verfolgt. Die Ergebnisse zeigen, dass sich das Verfahren der ionenbe-schussinduzierten magnetischen Strukturierung (IBMP) von EB-Systemen zur Herstellung von maßgeschneiderten magnetischen Feldlandschaften (MFL) oberhalb der Substratoberfläche, deren Stärke und räumlicher Verlauf auf Nano- und Mikrometerlängenskalen gezielt über die Veränderung der Materialparameter des EB-Systems via IBMP eingestellt werden kann, eignet. Im Zuge dessen wurden erstmals moderne, experimentelle Verfahrenstechniken (Raster-Hall-Sonden-Mikroskopie und rastermagnetoresistive Mikroskopie) in Kombination mit einem eigens entwickelten theoretischen Modell eingesetzt, um eine Abbildung der MFL in unterschiedlichen Abstandsbereichen zur Substratoberfläche zu realisieren. Basierend auf der quantitativen Kenntnis der MFL wurde ein neuartiges Konzept zum fernsteuerbaren Transport magnetischer Partikel entwickelt, bei dem Partikelgeschwindigkeiten im Bereich von 100 µm/s unter Verwendung von externen Magnetfeldstärken im Bereich weniger Millitesla erzielt werden können, ohne den magnetischen Zustand des Substrats zu modifizieren. Wie aus den Untersuchungen hervorgeht, können zudem die Stärke des externen Magnetfelds, die Stärke und der Gradient der MFL, das magnetfeldinduzierte magnetische Moment der Partikel sowie die Größe und der künstlich veränderliche Abstand der Partikel zur Substratoberfläche als zentrale Einflussgrößen zur quantitativen Modifikation der Partikelgeschwindigkeit genutzt werden. Abschließend wurde erfolgreich ein numerisches Simulationsmodell entwickelt, das die quantitative Studie der aktiven Durchmischung auf Basis des vorgestellten Partikeltransportkonzepts von theoretischer Seite ermöglicht, um so gezielt die geometrischen Gegebenheiten der mikrofluidischen Kanalstrukturen auf einem LOC-System für spezifische Anwendungen anzupassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Arbeit werden Exchange-Bias-Dünnschichtsysteme untersucht. Ein Fokus der Arbeit liegt auf der magnetooptischen Aktivität dieser Systeme und im speziellen wie sich diese optimieren lässt. Der zweite Fokus der Arbeit ist die Modellierung dieser Systeme. Aufbauend auf einem polykristallinen Ansatz wird eine neue rotierbare magnetische Anisotropie eingeführt, welche die Relaxationszeiten thermisch instabiler Körner im AF berücksichtigt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Landnutzungsänderungen sind eine wesentliche Ursache von Treibhausgasemissionen. Die Umwandlung von Ökosystemen mit permanenter natürlicher Vegetation hin zu Ackerbau mit zeitweise vegetationslosem Boden (z.B. nach der Bodenbearbeitung vor der Aussaat) führt häufig zu gesteigerten Treibhausgasemissionen und verminderter Kohlenstoffbindung. Weltweit dehnt sich Ackerbau sowohl in kleinbäuerlichen als auch in agro-industriellen Systemen aus, häufig in benachbarte semiaride bis subhumide Rangeland Ökosysteme. Die vorliegende Arbeit untersucht Trends der Landnutzungsänderung im Borana Rangeland Südäthiopiens. Bevölkerungswachstum, Landprivatisierung und damit einhergehende Einzäunung, veränderte Landnutzungspolitik und zunehmende Klimavariabilität führen zu raschen Veränderungen der traditionell auf Tierhaltung basierten, pastoralen Systeme. Mittels einer Literaturanalyse von Fallstudien in ostafrikanischen Rangelands wurde im Rahmen dieser Studie ein schematisches Modell der Zusammenhänge von Landnutzung, Treibhausgasemissionen und Kohlenstofffixierung entwickelt. Anhand von Satellitendaten und Daten aus Haushaltsbefragungen wurden Art und Umfang von Landnutzungsänderungen und Vegetationsveränderungen an fünf Untersuchungsstandorten (Darito/Yabelo Distrikt, Soda, Samaro, Haralo, Did Mega/alle Dire Distrikt) zwischen 1985 und 2011 analysiert. In Darito dehnte sich die Ackerbaufläche um 12% aus, überwiegend auf Kosten von Buschland. An den übrigen Standorten blieb die Ackerbaufläche relativ konstant, jedoch nahm Graslandvegetation um zwischen 16 und 28% zu, während Buschland um zwischen 23 und 31% abnahm. Lediglich am Standort Haralo nahm auch „bare land“, vegetationslose Flächen, um 13% zu. Faktoren, die zur Ausdehnung des Ackerbaus führen, wurden am Standort Darito detaillierter untersucht. GPS Daten und anbaugeschichtlichen Daten von 108 Feldern auf 54 Betrieben wurden in einem Geographischen Informationssystem (GIS) mit thematischen Boden-, Niederschlags-, und Hangneigungskarten sowie einem Digitales Höhenmodell überlagert. Multiple lineare Regression ermittelte Hangneigung und geographische Höhe als signifikante Erklärungsvariablen für die Ausdehnung von Ackerbau in niedrigere Lagen. Bodenart, Entfernung zum saisonalen Flusslauf und Niederschlag waren hingegen nicht signifikant. Das niedrige Bestimmtheitsmaß (R²=0,154) weist darauf hin, dass es weitere, hier nicht erfasste Erklärungsvariablen für die Richtung der räumlichen Ausweitung von Ackerland gibt. Streudiagramme zu Ackergröße und Anbaujahren in Relation zu geographischer Höhe zeigen seit dem Jahr 2000 eine Ausdehnung des Ackerbaus in Lagen unter 1620 müNN und eine Zunahme der Schlaggröße (>3ha). Die Analyse der phänologischen Entwicklung von Feldfrüchten im Jahresverlauf in Kombination mit Niederschlagsdaten und normalized difference vegetation index (NDVI) Zeitreihendaten dienten dazu, Zeitpunkte besonders hoher (Begrünung vor der Ernte) oder niedriger (nach der Bodenbearbeitung) Pflanzenbiomasse auf Ackerland zu identifizieren, um Ackerland und seine Ausdehnung von anderen Vegetationsformen fernerkundlich unterscheiden zu können. Anhand der NDVI Spektralprofile konnte Ackerland gut Wald, jedoch weniger gut von Gras- und Buschland unterschieden werden. Die geringe Auflösung (250m) der Moderate Resolution Imaging Spectroradiometer (MODIS) NDVI Daten führte zu einem Mixed Pixel Effect, d.h. die Fläche eines Pixels beinhaltete häufig verschiedene Vegetationsformen in unterschiedlichen Anteilen, was deren Unterscheidung beeinträchtigte. Für die Entwicklung eines Echtzeit Monitoring Systems für die Ausdehnung des Ackerbaus wären höher auflösende NDVI Daten (z.B. Multispektralband, Hyperion EO-1 Sensor) notwendig, um kleinräumig eine bessere Differenzierung von Ackerland und natürlicher Rangeland-Vegetation zu erhalten. Die Entwicklung und der Einsatz solcher Methoden als Entscheidungshilfen für Land- und Ressourcennutzungsplanung könnte dazu beitragen, Produktions- und Entwicklungsziele der Borana Landnutzer mit nationalen Anstrengungen zur Eindämmung des Klimawandels durch Steigerung der Kohlenstofffixierung in Rangelands in Einklang zu bringen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Validität des Sensorkonzeptes aus dem Patent von Prof. H. Hillmer wird unter Verwendung einer gasförmigen Testsubstanz gezeigt. Zu diesem Zweck wird ein bestehender Messaufbau durch zahlreiche Verbesserungen optimiert. Die optischen Eigenschaften der verwendeten Komponenten und der resultierenden modifizierten Aufbauten werden dargelegt. Die bisherigen faserbasierter Messaufbauten werden zu einem symmetrischen Messaufbau mit verbesserter spektraler Auflösung und vereinfachter Handhabung erweitert. Die Vorlaufzeiten, die zuvor ein maßgebliches Problem darstellte, wurde deutlich reduziert. Die spektralen Eigenschaften des überarbeiteten Lasersystems werden detailliert erfasst und dargestellt. Der asymmetrische Messaufbau erreicht minimale Halbwertsbreiten von 0,04 ± 0,02 nm, bei einem Seitenmodenunterdrückungsverhältnis von 26,9 ± 0,9 dB und weist einen Schwellstrom von 361,55 mA auf. Der symmetrische Aufbau erreicht Halbwertsbreiten von 0,04 ± 0,02 nm, ein Seitenmodenunterdrückungsverhältnis von 49,45 ± 0,05 nm und weist einen Schwellstrom von 261,25 mA auf. Durch die Erweiterung des Systems zum symmetrischen Messaufbau wird es möglich, die Positionen der Wellenlängen frei zu wählen, wohingegen im asymmetrischen Messaufbau die Wellenlänge der äußeren Kavität immer näher am Maximum der Verstärkungskurve des SOA gewählt werden muss. Mit beiden System werden Messungen mit unterschiedlichen Stoffmengen von Acetylen mit unterschiedlichen Abständen zwischen den Laserlinien durchgeführt. Obwohl eine vergleichsweise schwache Absorptionslinie von Acetylen für die Messungen gewählt wurde, zeigen beide Systeme eine instantane Änderung der Intensitäten der Laserlinien bei einer Änderung der Stoffmenge im Resonator. Die Laserlinie, die von der Absorption von Acetylen betroffen ist, nimmt ab, wohingegen die Intensität der zweiten Laserlinie zunimmt. Es wird erstmals gezeigt, dass eine Leistungsübertragung zwischen den Laserlinien stattfindet. Die Reaktion beider Systeme ist stark vom Abstand der Laserlinien zueinander abhängig, wodurch eine genaue Bestimmung der Sensitivität nicht durchgeführt wird.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um den Fahrkomfort eines Automobils weiter zu erhöhen und zugleich dessen fahrdynamischen Grenzbereich kontinuierlich auszubauen, wurden im Laufe der letzten Jahrzehnte und insbesondere innerhalb der letzten Jahre vermehrt aktive Fahrwerkregelsysteme eingeführt. Durch diesen zunehmenden Verbau von Fahrwerksaktoren in heutigen Fahrzeugen nimmt jedoch die Beanspruchung des 12V-Energienetzes nach wie vor stetig zu und beeinträchtigt somit dessen Stabilität. Um das Bordnetz zu stützen, stehen nun einige Optionen zur Verfügung, wie z.B. der Einsatz einer zusätzlichen 48V-Spannungsebene. Da solche Technologien jedoch mit einem entsprechend hohen Mehraufwand einhergehen, ist es das Bestreben der Automobilindustrie, mit der Einführung derartiger Maßnahmen möglichst lange zu warten. Um diesen Zielkonflikt zu lösen, wird im Rahmen dieser Dissertation das Potential eines Zentralreglers für ein aktives Fahrwerk untersucht, welches unter Beachtung der Bordnetzstabilität und der geforderten fahrdynamischen Eigenschaften realisierbar ist. Zu diesem Zweck wird ein Versuchsträger aufgebaut und mit ausgewählten aktiven Fahrwerkskomponenten ausgestattet. Auf Basis dieses Versuchsfahrzeugs wird ein Gesamtfahrzeugmodell in der Simulationsumgebung Matlab/Simulink bzw. veDYNA generiert, welches in der Lage ist, die elektromechanischen Charakteristiken des aktiven Fahrwerks realitätsnah abzubilden. Da die Simulationsmodelle der Fahrwerkssteller Hinterachslenkung und Sportdifferenzial bislang nicht verfügbar waren, mussten zunächst entsprechende Modelle aufgebaut werden, welche die Auswirkungen der Aktoren sowohl auf die Fahrdynamik als auch auf den Strombedarf in geeigneter Form wiedergeben können. Das zentrale Regelungskonzept für das aktive Fahrwerk, welches im Rahmen dieser Arbeit zum Einsatz kommt, basiert auf einer linear-quadratischen Regelung (LQR) mit Führungsgrößenaufschaltung. Unter Zuhilfenahme der Simulationsumgebung und eines speziell entwickelten Optimierungstools werden unterschiedliche Reglerabstimmungen vorgestellt, bei denen zum einen die Absenkung des elektrischen Leistungsbedarfs und zum anderen die Umsetzung einer optimalen Fahrdynamik im Vordergrund steht. Zwecks Validierung der Berechnungsergebnisse werden anschließend die im Versuchsträger durchgeführten Untersuchungen präsentiert, bei denen diese Reglerabstimmungen gegenübergestellt werden, um das Potential des zentralen Regelungskonzeptes zu bewerten.