145 resultados para Numerisches Verfahren
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In der Anwendung treten häufig Differentialgleichungssysteme auf, deren Komponenten über das Lösen mit einer vorgegeben Genauigkeit hinaus Anforderungen an die, zur Näherung verwendeten, numerischen Verfahren stellen. Die Arbeit widmet sich hierbei den beiden Forderungen 1. Erhaltung der Positivität aller positiven Größen (z.B. Massen, Konzentrationen, Energie) und 2. Erhaltung der Masse in abgeschlossenen Systemen. Ausgehend von einem komplexen ökologischen 2D Modell zur Beschreibung von Algendynamiken in flachen Gewässern auf Grund der verfügbaren Phosphorvorkommen wird ein problemangepasstes Finite-Volumen-Verfahren entwickelt. Den in diesem Rahmen auftauchenden gewöhnlichen Differentialgleichungssystemen wird spezielle Aufmerksamkeit geschenkt. Es werden die bestehenden Begriffe auf eine gemeinsame formale Basis gestellt und die bestehenden Verfahren (Bruggeman und modifizierte Patankar Ansätze) mit Hilfe dieser vereinheitlichten Basis formuliert. Anschließend werden die diesen Ansätzen jeweils eigenen Schwierigkeiten und Einschränkungen (Ordnungsschranke von zwei, Erhaltung der Konservativität nur für Gleichungen mit einfacher Struktur, nicht für steife Systeme geeignet) betrachtet. Danach werden zwei Verfahrensverallgemeinerungen des modifizierten Patankar Euler Verfahrens präsentiert, welche jeweils eine der bestehenden Schwächen aufhebt. 1. Das extrapolierte mod. Pat. Euler Verfahren ermöglicht in Abhängigkeit des zu Grunde liegenden Problems die Erzeugung von Näherungen beliebig hoher Ordnung. 2. Das verallgemeinerte mod. Pat. Euler Verfahren erlaubt den Erhalt der Masse auch für komplexe Strukturen. Anschließend befasst sich die Arbeit mit der Vorstellung des verwendeten FVV, einer angepassten Form der 2D DLR Taucodes. Im weiteren Verlauf werden sämtliche theoretischen Aussagen zu den Verfahren an Hand entsprechend gewählter praktischer Testfälle demonstriert. Abschließend wird die Wirksamkeit des Gesamtverfahrens in seiner Anwendung auf das Algendynamikmodell vorgeführt.
Resumo:
Das von Maz'ya eingeführte Approximationsverfahren, die Methode der näherungsweisen Näherungen (Approximate Approximations), kann auch zur numerischen Lösung von Randintegralgleichungen verwendet werden (Randpunktmethode). In diesem Fall hängen die Komponenten der Matrix des resultierenden Gleichungssystems zur Berechnung der Näherung für die Dichte nur von der Position der Randpunkte und der Richtung der äußeren Einheitsnormalen in diesen Punkten ab. Dieses numerisches Verfahren wird am Beispiel des Dirichlet Problems für die Laplace Gleichung und die Stokes Gleichungen in einem beschränkten zweidimensionalem Gebiet untersucht. Die Randpunktmethode umfasst drei Schritte: Im ersten Schritt wird die unbekannte Dichte durch eine Linearkombination von radialen, exponentiell abklingenden Basisfunktionen approximiert. Im zweiten Schritt wird die Integration über den Rand durch die Integration über die Tangenten in Randpunkten ersetzt. Für die auftretende Näherungspotentiale können sogar analytische Ausdrücke gewonnen werden. Im dritten Schritt wird das lineare Gleichungssystem gelöst, und eine Näherung für die unbekannte Dichte und damit auch für die Lösung der Randwertaufgabe konstruiert. Die Konvergenz dieses Verfahrens wird für glatte konvexe Gebiete nachgewiesen.
Resumo:
In dieser Doktorarbeit wird eine akkurate Methode zur Bestimmung von Grundzustandseigenschaften stark korrelierter Elektronen im Rahmen von Gittermodellen entwickelt und angewandt. In der Dichtematrix-Funktional-Theorie (LDFT, vom englischen lattice density functional theory) ist die Ein-Teilchen-Dichtematrix γ die fundamentale Variable. Auf der Basis eines verallgemeinerten Hohenberg-Kohn-Theorems ergibt sich die Grundzustandsenergie Egs[γgs] = min° E[γ] durch die Minimierung des Energiefunktionals E[γ] bezüglich aller physikalischer bzw. repräsentativer γ. Das Energiefunktional kann in zwei Beiträge aufgeteilt werden: Das Funktional der kinetischen Energie T[γ], dessen lineare Abhängigkeit von γ genau bekannt ist, und das Funktional der Korrelationsenergie W[γ], dessen Abhängigkeit von γ nicht explizit bekannt ist. Das Auffinden präziser Näherungen für W[γ] stellt die tatsächliche Herausforderung dieser These dar. Einem Teil dieser Arbeit liegen vorausgegangene Studien zu Grunde, in denen eine Näherung des Funktionals W[γ] für das Hubbardmodell, basierend auf Skalierungshypothesen und exakten analytischen Ergebnissen für das Dimer, hergeleitet wird. Jedoch ist dieser Ansatz begrenzt auf spin-unabhängige und homogene Systeme. Um den Anwendungsbereich von LDFT zu erweitern, entwickeln wir drei verschiedene Ansätze zur Herleitung von W[γ], die das Studium von Systemen mit gebrochener Symmetrie ermöglichen. Zuerst wird das bisherige Skalierungsfunktional erweitert auf Systeme mit Ladungstransfer. Eine systematische Untersuchung der Abhängigkeit des Funktionals W[γ] von der Ladungsverteilung ergibt ähnliche Skalierungseigenschaften wie für den homogenen Fall. Daraufhin wird eine Erweiterung auf das Hubbardmodell auf bipartiten Gittern hergeleitet und an sowohl endlichen als auch unendlichen Systemen mit repulsiver und attraktiver Wechselwirkung angewandt. Die hohe Genauigkeit dieses Funktionals wird aufgezeigt. Es erweist sich jedoch als schwierig, diesen Ansatz auf komplexere Systeme zu übertragen, da bei der Berechnung von W[γ] das System als ganzes betrachtet wird. Um dieses Problem zu bewältigen, leiten wir eine weitere Näherung basierend auf lokalen Skalierungseigenschaften her. Dieses Funktional ist lokal bezüglich der Gitterplätze formuliert und ist daher anwendbar auf jede Art von geordneten oder ungeordneten Hamiltonoperatoren mit lokalen Wechselwirkungen. Als Anwendungen untersuchen wir den Metall-Isolator-Übergang sowohl im ionischen Hubbardmodell in einer und zwei Dimensionen als auch in eindimensionalen Hubbardketten mit nächsten und übernächsten Nachbarn. Schließlich entwickeln wir ein numerisches Verfahren zur Berechnung von W[γ], basierend auf exakten Diagonalisierungen eines effektiven Vielteilchen-Hamilton-Operators, welcher einen von einem effektiven Medium umgebenen Cluster beschreibt. Dieser effektive Hamiltonoperator hängt von der Dichtematrix γ ab und erlaubt die Herleitung von Näherungen an W[γ], dessen Qualität sich systematisch mit steigender Clustergröße verbessert. Die Formulierung ist spinabhängig und ermöglicht eine direkte Verallgemeinerung auf korrelierte Systeme mit mehreren Orbitalen, wie zum Beispiel auf den spd-Hamilton-Operator. Darüber hinaus berücksichtigt sie die Effekte kurzreichweitiger Ladungs- und Spinfluktuationen in dem Funktional. Für das Hubbardmodell wird die Genauigkeit der Methode durch Vergleich mit Bethe-Ansatz-Resultaten (1D) und Quanten-Monte-Carlo-Simulationen (2D) veranschaulicht. Zum Abschluss wird ein Ausblick auf relevante zukünftige Entwicklungen dieser Theorie gegeben.
Resumo:
Die hier vorliegende Arbeit wurde im Rahmen eines europäischen Projektes mit dem Titel „Improving Fraxinus (Ash) productivity for European needs by testing, selection, propagation and promotion of improved genetic resources“ an der Niedersächsischen Forstlichen Versuchsanstalt, Abteilung Waldgenressourcen erstellt. Im Rahmen des Projektes wurden 62 Plusbäume aus einem 15 Jahre alten europäischen Herkunfts-/ Nachkommenschaftsversuch in den Niedersächsischen Forstämtern Bovenden und Dannenberg nach den Kriterien Stammform und Wuchsleistung für die vegetative Vermehrung ausgewählt. Ziel dieser Arbeit war die Optimierung bestehender in vitro Protokolle sowie die Entwicklung eines bisher noch nicht existierenden Kryokonservierungsprotokolls für in vitro Sprossspitzen. Im ersten Teil dieser Arbeit wird die Entwicklung des in vitro Protokolls für Fraxinus excelsior dargestellt. Die Optimierung der Methoden zur Etablierung, Vermehrung und Bewurzelung erfolgte durch Versuchsreihen mit unterschiedlichen Klonen, so dass insgesamt 26 der selektierten Plusbäume erfolgreich in vitro etabliert werden konnten. Achselknospen frischer Triebe der Pfropflinge der Mutterbäume stellten die beste Explantatquelle dar. Die Explantate wurden mit 0,2 % Quecksilberchlorid (HgCl2) oberflächensterilisiert bevor sie auf hormonfreies Woody Plant Medium (WPM) transferiert wurden. Nach zwei Wochen erfolgte ein Transfer auf WPM mit 4 mg/l 6-Benzylaminopurine (BAP) und 0,15 mg/l Indole-3-butyric acid (IBA). Die besten Vermehrungsraten wurden auf WPM mit 4 mg/l BAP, 0,15 mg/l IBA und 0,01 mg/l TDZ und 0,7 % Agar in Honiggläsern mit einem Plastikdeckel erzielt. Als Bewurzelungsmedium wurde 0,5 konzentriertes Murashige und Skoog (MS) Medium mit 2 mg/l IBA, 0,25 mg/l BAP und 0,8 % Agar verwandt. Im zweiten Teil der Arbeit werden die Versuchsreihen zur Entwicklung des Kryokonservierungsprotokolls von in vitro Sprossspitzen dargestellt. Zur Entwicklung der Methode wurden die Vorbehandlungsbedingungen verbessert und zwei Techniken, die Alginat- / Dehydrati-onsmethode und die Vitrifikationsmethode mit Hilfe der sogenannten PVS2-Lösung (Plant Vitrification solution number 2) getestet. Die optimierte PVS2-Methode erwies sich als die für Esche besser geeignete Technik und ließ sich erfolgreich zur Kryokonservierung juveniler und adulter Kulturen anwenden. Die Regenerationsraten lagen zwischen 50 und 100 % für juvenile bzw. 50 und 80 % für adulte Kulturen.
Resumo:
Mit aktiven Magnetlagern ist es möglich, rotierende Körper durch magnetische Felder berührungsfrei zu lagern. Systembedingt sind bei aktiv magnetgelagerten Maschinen wesentliche Signale ohne zusätzlichen Aufwand an Messtechnik für Diagnoseaufgaben verfügbar. In der Arbeit wird ein Konzept entwickelt, das durch Verwendung der systeminhärenten Signale eine Diagnose magnetgelagerter rotierender Maschinen ermöglicht und somit neben einer kontinuierlichen Anlagenüberwachung eine schnelle Bewertung des Anlagenzustandes gestattet. Fehler können rechtzeitig und ursächlich in Art und Größe erkannt und entsprechende Gegenmaßnahmen eingeleitet werden. Anhand der erfassten Signale geschieht die Gewinnung von Merkmalen mit signal- und modellgestützten Verfahren. Für den Magnetlagerregelkreis erfolgen Untersuchungen zum Einsatz modellgestützter Parameteridentifikationsverfahren, deren Verwendbarkeit wird bei der Diagnose am Regler und Leistungsverstärker nachgewiesen. Unter Nutzung von Simulationsmodellen sowie durch Experimente an Versuchsständen werden die Merkmalsverläufe im normalen Referenzzustand und bei auftretenden Fehlern aufgenommen und die Ergebnisse in einer Wissensbasis abgelegt. Diese dient als Grundlage zur Festlegung von Grenzwerten und Regeln für die Überwachung des Systems und zur Erstellung wissensbasierter Diagnosemodelle. Bei der Überwachung werden die Merkmalsausprägungen auf das Überschreiten von Grenzwerten überprüft, Informationen über erkannte Fehler und Betriebszustände gebildet sowie gegebenenfalls Alarmmeldungen ausgegeben. Sich langsam anbahnende Fehler können durch die Berechnung der Merkmalstrends mit Hilfe der Regressionsanalyse erkannt werden. Über die bisher bei aktiven Magnetlagern übliche Überwachung von Grenzwerten hinaus erfolgt bei der Fehlerdiagnose eine Verknüpfung der extrahierten Merkmale zur Identifizierung und Lokalisierung auftretender Fehler. Die Diagnose geschieht mittels regelbasierter Fuzzy-Logik, dies gestattet die Einbeziehung von linguistischen Aussagen in Form von Expertenwissen sowie die Berücksichtigung von Unbestimmtheiten und ermöglicht damit eine Diagnose komplexer Systeme. Für Aktor-, Sensor- und Reglerfehler im Magnetlagerregelkreis sowie Fehler durch externe Kräfte und Unwuchten werden Diagnosemodelle erstellt und verifiziert. Es erfolgt der Nachweis, dass das entwickelte Diagnosekonzept mit beherrschbarem Rechenaufwand korrekte Diagnoseaussagen liefert. Durch Kaskadierung von Fuzzy-Logik-Modulen wird die Transparenz des Regelwerks gewahrt und die Abarbeitung der Regeln optimiert. Endresultat ist ein neuartiges hybrides Diagnosekonzept, welches signal- und modellgestützte Verfahren der Merkmalsgewinnung mit wissensbasierten Methoden der Fehlerdiagnose kombiniert. Das entwickelte Diagnosekonzept ist für die Anpassung an unterschiedliche Anforderungen und Anwendungen bei rotierenden Maschinen konzipiert.
Resumo:
Bei Dämmen auf wenig tragfähigem Untergrund ist es zwischenzeitlich Stand der Technik, an der Dammbasis eine Bewehrung aus hochzugfesten Geokunststoffen (Gewebe oder Geogitter) einzulegen. Dabei können die Bewehrungslagen direkt auf den weichen Boden oder über Pfahlelementen angeordnet werden, die die Dammlasten in tiefere, tragfähigere Schichten abtragen. Die horizontale Bewehrung an der Dammbasis hat die Aufgabe, die vertikalen Dammlasten und die nach außen wirkenden Spreizkräfte aufzunehmen. Dies ist besonders für bewehrte Tragschichten über Pfählen von großer Bedeutung, da sonst die Pfähle/Säulen eine Biegebeanspruchung erhalten, die sie aufgrund des geringen Durchmessers (oftmals unbewehrt) nicht aufnehmen können. Abgesicherte wissenschaftliche Erkenntnisse über Größe und Verteilung der Spreizspannung in Höhe ober- und unterhalb der Bewehrungslagen liegen derzeit noch nicht vor, aus denen dann auch die Beanspruchung abzuleiten ist, die aus der Spreizwirkung bei der Geokunststoffbemessung zu berücksichtigen ist. Herr Dr.-Ing. Gourge Fahmi hat dafür zunächst den Kenntnisstand zur Spreizbeanspruchung ohne und mit Bewehrung sowie ohne und mit Pfahlelementen zusammengefasst. Ein wesentlicher Teil einer wissenschaftlichen Untersuchungen stellt die Modellversuche in einem relativ großen Maßstab dar, die u. a. auch zur Validierung von numerischen Berechnungen zur Fragestellung vorgesehen waren. Dabei konnte nach gewissen Parameteranpassungen überwiegend eine gute Übereinstimmung zwischen Modellversuchen und FEM-Berechnungen erreicht werden. Lediglich bei den Dehnungen bzw. Zugkräften in den Geogittern über Pfahlelementen ergab die FEM bei dem verwendeten Programmsystem viel zu niedrige Werte. Es wurde dazu in der Arbeit anhand eigener Untersuchungen und Vergleichsergebnissen aus der Literatur eine Hypothese formuliert und zunächst die Berechnungsergebnisse mit einem Faktor angepasst. Mit den durchgeführten Verifikationen stand damit dann ein weitestgehend abgesichertes numerisches Berechnungsmodell zur Verfügung. Aufbauend auf diesen Vorarbeiten konnten Parameterstudien mit numerischen und analytischen Methoden zur Spreizproblematik durchgeführt werden. Dabei wurden die Randbedingungen und Parametervariationen sinnvoll und für die Fragestellung zutreffend gewählt. Die numerischen Verfahren ergaben vertiefte Erkenntnisse zur Mechanik und zum Verhalten der Konstruktion. Die analytischen Vergleichsberechnungen validierten primär die Güte dieser vereinfachten Ansätze für praktische Berechnungen. Zusammenfassend wurde festgestellt, dass erwartungsgemäß die Spreizkräfte im Geogitter nahezu linear mit der Dammhöhe anwachsen. Von besonderer Bedeutung für die Größe der Spreizkräfte ist die Steifigkeit der Weichschichten. Dieser Parameter wird bei den bisher bekannten analytischen Berechnungsverfahren nicht berücksichtigt. Je weicher der Untergrund, je größer wird das Verhältnis zwischen Spreiz- und Membranbeanspruchung. Eine steilere Dammböschung hat erwartungsgemäß ebenfalls eine höhere Spreizwirkung zur Folge. Des Weiteren ergeben sich bei mehrlagigen Geogittern die höheren Beanspruchungen in der unteren Lage aus dem Membraneffekt und in der oberen Lage aus dem Spreizeffekt. Zu diesen Erkenntnissen wurden in der Arbeit erste Vorschläge für die praktischen Bemessungen gemacht, die aber noch weiter zu optimieren sind. Schließlich erfolgt von Herrn Fahmi eine Betrachtung der Pfahlelementbeanspruchung aus Pfahlkopfverschiebung und Biegemomenten. Dabei wurde ersichtlich, dass die Pfahlelemente bei hohen Dämmen erhebliche Beanspruchungen erhalten können, wenn relativ weicher Untergrund vorhanden ist, und es zeigt die Notwendigkeit entsprechend abgesicherter Bemessungsverfahren auf.
Resumo:
The planning and organization of audio-visual instruction media are placed within a communication theoretical reference frame which begins where audio-visual media cease to function for daily instruction. Media-bound disorders however, are only seen as the surface conflict between opposing communication paradigms. The decisive task of the teacher is to remove audio-visual media from a communication context which is contradictory to instruction. This is successful when the objectification performance of audio-visual media is used to serve the subjective process of cognition. As order to support the teacher in this complex task of planning, a taxonomy is presented which operationalizes the essential problems when using media.
Resumo:
Im Rahmen dieser Arbeit werden Modellbildungsverfahren zur echtzeitfähigen Simulation wichtiger Schadstoffkomponenten im Abgasstrom von Verbrennungsmotoren vorgestellt. Es wird ein ganzheitlicher Entwicklungsablauf dargestellt, dessen einzelne Schritte, beginnend bei der Ver-suchsplanung über die Erstellung einer geeigneten Modellstruktur bis hin zur Modellvalidierung, detailliert beschrieben werden. Diese Methoden werden zur Nachbildung der dynamischen Emissi-onsverläufe relevanter Schadstoffe des Ottomotors angewendet. Die abgeleiteten Emissionsmodelle dienen zusammen mit einer Gesamtmotorsimulation zur Optimierung von Betriebstrategien in Hybridfahrzeugen. Im ersten Abschnitt der Arbeit wird eine systematische Vorgehensweise zur Planung und Erstellung von komplexen, dynamischen und echtzeitfähigen Modellstrukturen aufgezeigt. Es beginnt mit einer physikalisch motivierten Strukturierung, die eine geeignete Unterteilung eines Prozessmodells in einzelne überschaubare Elemente vorsieht. Diese Teilmodelle werden dann, jeweils ausgehend von einem möglichst einfachen nominalen Modellkern, schrittweise erweitert und ermöglichen zum Abschluss eine robuste Nachbildung auch komplexen, dynamischen Verhaltens bei hinreichender Genauigkeit. Da einige Teilmodelle als neuronale Netze realisiert werden, wurde eigens ein Verfah-ren zur sogenannten diskreten evidenten Interpolation (DEI) entwickelt, das beim Training einge-setzt, und bei minimaler Messdatenanzahl ein plausibles, also evidentes Verhalten experimenteller Modelle sicherstellen kann. Zum Abgleich der einzelnen Teilmodelle wurden statistische Versuchs-pläne erstellt, die sowohl mit klassischen DoE-Methoden als auch mittels einer iterativen Versuchs-planung (iDoE ) generiert wurden. Im zweiten Teil der Arbeit werden, nach Ermittlung der wichtigsten Einflussparameter, die Model-strukturen zur Nachbildung dynamischer Emissionsverläufe ausgewählter Abgaskomponenten vor-gestellt, wie unverbrannte Kohlenwasserstoffe (HC), Stickstoffmonoxid (NO) sowie Kohlenmono-xid (CO). Die vorgestellten Simulationsmodelle bilden die Schadstoffkonzentrationen eines Ver-brennungsmotors im Kaltstart sowie in der anschließenden Warmlaufphase in Echtzeit nach. Im Vergleich zur obligatorischen Nachbildung des stationären Verhaltens wird hier auch das dynami-sche Verhalten des Verbrennungsmotors in transienten Betriebsphasen ausreichend korrekt darge-stellt. Eine konsequente Anwendung der im ersten Teil der Arbeit vorgestellten Methodik erlaubt, trotz einer Vielzahl von Prozesseinflussgrößen, auch hier eine hohe Simulationsqualität und Ro-bustheit. Die Modelle der Schadstoffemissionen, eingebettet in das dynamische Gesamtmodell eines Ver-brennungsmotors, werden zur Ableitung einer optimalen Betriebsstrategie im Hybridfahrzeug ein-gesetzt. Zur Lösung solcher Optimierungsaufgaben bieten sich modellbasierte Verfahren in beson-derer Weise an, wobei insbesondere unter Verwendung dynamischer als auch kaltstartfähiger Mo-delle und der damit verbundenen Realitätsnähe eine hohe Ausgabequalität erreicht werden kann.
Resumo:
Mit der Einführung von Qualitätsmanagementsystemen an Beruflichen Schulen stellt sich für die externe Evaluation (Breitbandevaluation) die Herausforderung, verstärkt auf jene Aspekte einzugehen, die traditionell in den Bereich der Metaevaluation des Qualitätsmanagements (QM) gehören. So müssen sich in Hessen die Schulen, die sich für die nach dem 2011 novellierten Hessischen Schulgesetz ermöglichte Selbstständigkeit entscheiden, ein QM-System einführen. Erfolgt dies auf der Basis des Q2E-Modells, ist vorgesehen, ihnen ab 2012 eine Metaevaluation nach Q2E kombiniert mit Elementen der Schulinspektion im Rahmen einer Primärevaluation des Qualitätsbereichs „Lehren und Lernen“ des Hessischen Referenzrahmens für Schulqualität anzubieten. Hierfür wurde das Verfahren QEE-Hessen konzipiert und pilotiert. In dem Verfahren wird der Qualitätsbegriff an den beruflichen Schulen in Hessen dergestalt konkretisiert, dass zwei Qualitätskonzepte - Q2E und Schulinspektion - zusammengeführt werden. Die Reflexion des Verfahrens und seiner Pilotierung erfolgt auf den Grundlagen der beiden kombinierten Verfahren externer Evaluation sowie auf alltagstheoretischer und auf wissenschaftstheoretischer Ebene. Die Autoren machen Optimierungsvorschläge und stellen als positives Ergebnis fest, dass durch QEE-Hessen für alle Maßnahmen der schulischen Qualitätsentwicklung und -sicherung nun der Hessische Referenzrahmen Schulqualität als verbindlicher Orientierungsrahmen dient, der einheitliche Kriterien vorgibt, auf dessen Basis selbstständige Berufliche Schulen entwickelt, evaluiert, legitimiert und gesteuert werden können.
Resumo:
Selbstbestimmung und -gestaltung des eigenen Alltages gewinnen immer mehr an Bedeutung, insbesondere für ältere Mitmenschen in ländlichen Regionen, die auf ärztliche Versorgung angewiesen sind. Die Schaffung sogenannter smart personal environments mittels einer Vielzahl von, nahezu unsichtbar installierten Sensoren im gewohnten Lebensraum liefert dem Anwender (lebens-) notwendige Informationen über seine Umgebung oder seinen eigenen Körper. Dabei gilt es nicht den Anwender mit technischen Daten, wie Spektren, zu überfordern. Vielmehr sollte die Handhabung so einfach wie möglich gestaltet werden und die ausgewertete Information als Indikationsmittel zum weiteren Handeln dienen. Die Anforderungen an moderne Technologien sind folglich eine starke Miniaturisierung, zur optimalen Integration und Mobilität, bei gleichzeitig hoher Auflösung und Stabilität. Die Zielsetzung der vorliegenden Arbeit ist die Miniaturisierung eines spektroskopischen Systems bei gleichzeitig hohem Auflösungsvermögen für die Detektion im sichtbaren Spektralbereich. Eine Möglichkeit für die Herstellung eines konkurrenzfähigen „Mini-„ oder „Mikrospektrometers“ basiert auf Fabry-Pérot (FP) Filtersystemen, da hierbei die Miniaturisierung nicht wie üblich auf Gittersysteme limitiert ist. Der maßgebliche Faktor für das spektrale Auflösungsvermögen des Spektrometers ist die vertikale Präzision und Homogenität der einzelnen 3D Filterkavitäten, die die unterschiedlichen Transmissionswellenlängen der einzelnen Filter festlegen. Die wirtschaftliche Konkurrenzfähigkeit des am INA entwickelten Nanospektremeters wurde durch die maximale Reduzierung der Prozessschritte, nämlich auf einen einzigen Schritt, erreicht. Erstmalig wird eine neuartige Nanoimprint Technologie, die sog. Substrate Conformal Imprint Lithography, für die Herstellung von wellenlängen-selektierenden Filterkavitäten von stark miniaturisierten Spektrometern eingesetzt. Im Zuge dieser Arbeit wird das Design des FP Filtersystems entwickelt und technologisch mittels Dünnschichtdeposition und der Nanoimprinttechnologie realisiert. Ein besonderer Schwerpunkt liegt hierbei in der Untersuchung des Prägematerials, dessen optische Eigenschaften maßgeblich über die Performance des Filtersystems entscheiden. Mit Hilfe eines speziell gefertigten Mikroskopspektrometers werden die gefertigten Filterfelder hinsichtlich ihrer Transmissionseigenschaften und ihres Auflösungsvermögens hin untersucht. Im Hinblick auf publizierte Arbeiten konkurrierender Arbeitsgruppen konnte eine deutliche Verbesserung des miniaturisierten Spektrometers erreicht werden. Die Minimierung der Prozessschritte auf einen einzigen Prägeschritt sorgt gleichzeitig für eine schnelle und zuverlässige Replikation der wellenlängenselektierenden Filterkavitäten. Im Rahmen dieser Arbeit wurde aufgezeigt, dass das angestrebte Nanospektrometer, trotz der sehr geringen Größe, eine hohe Auflösung liefern kann und gerade wegen der starken Miniaturisierung mit kommerziellen Mini- und Mikro-spektrometern konkurrenzfähig ist.