66 resultados para Bestimmung
em Universitätsbibliothek Kassel, Universität Kassel, Germany
Resumo:
In den vorliegenden Untersuchungen wurde der Gehalt von Carotinoiden in Weizen, Mais und Möhren sowie der Polyphenolgehalt in Möhren mit analytischen Methoden zum Nachweis dieser Substanzen gemessen. Der Gehalt der Carotinoide in Mais und der Gehalt der phenolischen Bestandteile in Möhren wurde mit Messungen mittels HPLC-Analytik gemessen. Die Methoden wurden aus literaturbekannten Verfahren abgeleitet und an die Anforderungen der untersuchten Probenmatrices angepasst und validiert. Dem Verfahren lag die Frage zugrunde, ob es möglich ist, Kulturpflanzen aus verschiedenen Anbausystemen auf der Basis des Gehaltes bestimmter sekundärer Pflanzeninhaltsstoffe zu differenzieren und aufgrund von Unterschieden im Gehalt der sekundären Pflanzeninhaltsstoffe zu klassifizieren. Die Gesamtverfahren wurden dabei gemäß der ISO 17025 validiert. Für die Messungen standen Proben aus definierten Langzeitversuchen und Erzeugerproben ausgesuchter ökologisch bzw. konventionell arbeitender Anbaubetriebe zur Verfügung. Als Grundlage für eine valide Methodeneinschätzung wurden die Messungen an codierten Proben vorgenommen. Eine Decodierung der Proben erfolgte erst nach der Vorlage der Messergebnisse in den genannten Projekten. Die Messung und Auswertung des Carotinoidgehaltes in Weizen, Mais und Möhren vor dem Hintergrund der Differenzierung und Klassifizierung erfolgte in Proben eines Erntejahres. Die Messung des Gehaltes phenolischer Substanzen in Möhren erfolgte in Möhren aus 3 Erntejahren. Die verwendeten HPLC-Verfahren konnten in Bezug auf den analytischen Teil der Messungen in den einzelnen Verfahrensschritten Linearität, Spezifität, Präzision und Robustheit erfolgreich überprüft werden. Darüber hinaus wurden wichtige Einflussgrößen auf die Messungen bestimmt. Für die Verfahren zur photometrischen Bestimmung der Gesamtcarotinoide konnte eine Grundkalibrierung der Parameter Präzision und Linearität des Verfahrens erfolgreich durchgeführt werden. Während der Anwendung der HPLC-Methoden an codierten Proben konnten in allen untersuchten Probenmatrices quantitativ bedeutende Inhaltsstoffe nachgewiesen und identifiziert werden. Eine vollständige Identifizierung aller dargestellten Peaks konnte in den Untersuchungen der Polyphenole in Möhren und der Carotinoide in Mais nicht erfolgen. Im Hinblick auf die Frage nach der Differenzierung und Klassifizierung ergab sich in den verschiedenen Proben ein unterschiedliches Bild. Sowohl durch den Carotinoid- als auch den Polyphenolgehalt konnten einzelne Proben statistisch signifikant differenziert werden. Die Trennleistung hing dabei sowohl von den jeweiligen Komponenten als auch von der untersuchten Probenmatrix ab. Ein durchgängig höherer Gehalt sekundärer Pflanzeninhaltsstoffe in Proben aus ökologischem Anbau konnte nicht bestätigt werden. Für die Klassifizierung der Proben verschiedener Anbauvarianten und konnten multivariate statistische Methoden, wie lineare Diskriminantenanalyse (LDA) und Classification and Regression Tree (CART), erfolgreich angewandt werden. Eine Klassifizierung mit unterschiedlichen statistischen Verfahren erbrachte dabei unterschiedliche Ergebnisse. In der Klassifizierung der decodierten Proben mittels LDA wirkten sich die Faktoren Sorte und Standort stärker auf das Klassifizierungsergebnis aus als der Faktor Anbausystem. Eine Klassifizierung der decodierten Proben nach dem Anbausystem wurde mit dem CART-Verfahren durchgeführt. Auf dieser Basis wurden für die Polyphenole in Möhren 97 % der Proben richtig klassifiziert. Durch die Messwerte des Carotinoidgehaltes und des Luteingehaltes in Weizen konnte der größere Teil der Proben (90 %) korrekt klassifiziert werden. Auf der Basis des Carotinoidgehaltes in Mais wurde der Großteil der Proben (95 %) korrekt nach dem Anbausystem klassifiziert. Auf der Basis des mittels HPLC gemessenen Carotinoidgehaltes in Möhren konnten die Proben 97 % korrekt klassifiziert werden (97 %). Insgesamt erscheint der Grundgedanke der Klassifizierung durch den Gehalt sekundärer Pflanzeninhaltsstoffe vielversprechend. Durch die vielfältigen Einflussgrößen auf den Sekundärstoffwechsel von Pflanzen müssten Veränderungen, die durch Sorte und Standort auftreten, über mehrere Jahre erhoben und systematisiert werden.
Resumo:
Hochaufgelöste Photoelektronspektroskopie ermöglicht die Untersuchung der Zerfallsdynamik angeregter Lochzustände im Festkörper. Durch Messung der intrinsischen Linienbreiten in den Spektren von Kupfer- und Silbereinkristallen werden die Lebensdauern von tiefliegenden d-Lochzuständen in diesen Edelmetallen bestimmt und mit Vielteilchenrechnungen verglichen. Insbesondere kann gezeigt werden (1) daß sich die d-Lochlebensdauern in Kupfer und Silber trotz unterschiedlicher Lage der d-Bänder ähnlich verhalten (2) daß keine quadratische Abhängigkeit gemäß des einfachen Modell eines freien Elektronengases beobachtet wird und (3) daß die Lochlebensdauern an der d-Bandoberkante von Kupfer und Silber stark zunehmen. Diese experimentellen Befunde legen eine weitgehende Entkopplung der Zerfallsdynamik von d-Löchern und sp-Elektronen nahe. Diese Deutung kann qualitativ durch ab-initio Rechnungen zur Lochlebensdauer bestätigt werden.
Resumo:
Die Reduktion von Schadstoff-Emissionen und des Kraftstoffverbrauches sind für die Einhaltung von immer strenger werdenden Abgasgrenzwerten zum Schutz der menschlichen Gesundheit und der Vegetation von großer gesellschaftlicher Bedeutung. Ob Deutschland die innerstädtischen Immissionsgrenzwerte der Europäischen Union (EU) für Stickstoffdioxid (NO2) ab 2010 einhalten wird, ist fraglich. Vor allem Lastkraftwagen mit Dieselmotor emittieren einen Großteil dieses Schadstoffes, sodass man mit einer Senkung der NO2-Emissionen dem gesetzten Ziel der Einhaltung der von der EU festgelegten NO2-Immisionsgrenzwerte bereits erheblich näher kommen würde. Ziel dieser Arbeit war es zu untersuchen, ob mit der Kenntnis der NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotor mittels Spektroskopie eine Reduzierung der NO2-Emissionen und eine Senkung des Kraftstoffverbrauches erreicht werden kann. Hierzu muss sowohl die Bestimmung der NO2-Konzentration aus der spektralen Analyse des Abgases möglich sein, als auch die Herstellung eines mikromechanisch durchstimmbaren optischen Fabry-Pérot-Filters mit Bragg-Spiegeln, der die Voraussetzungen erfüllt, das für die spektrale Analyse benötigte Spektrum quantifizieren zu können. Zusätzlich soll mit Hilfe der aus den Spektren extrahierten Information eine in Echtzeit gemessene NO2-Konzentration im Abgas ableitbar sein. Damit sollen Kraftstoff eingespart und Schadstoff-Emissionen reduziert werden. Hierfür wird am Beispiel eines Lastkraftwagens mit typischer Abgasnachbehandlung aufgezeigt, wie über innermotorische Maßnahmen die Verbrennung optimierbar ist und wie die Eigenschaften der Abgasnachbehandlung verbesserbar sind, sodass die gewünschten Senkungen erreicht werden. Zusätzlich kann auf den Einbau eines Sperrkatalysators im Abgasstrang verzichtet werden. Ferner reduziert sich auch der Verbrauch des für die Abgasnachbehandlung benötigten Harnstoffs. Zur Klärung, ob die NO2-Konzentration aus der spektralen Analyse des Abgases bestimmt werden kann, wurden an einem Motorprüfstand Spektren für verschiedene NO2-Konzentrationen gemessen. Zusätzlich wurde das in dieser Arbeit behandelte Sensor-System mittels mathematischer Modellrechnung beschrieben, sodass dieses Modell anschließend auf die am Motorprüfstand gemessenen Spektren angewendet werden konnte. Die auf diese Weise berechneten Ergebnisse wurden mit den NO2-Messungen am Motorprüfstand verglichen und zeigen eine große Korrelation. In dem mathematischen Modell wird auch die spektrale Auflösung des Sensors berücksichtigt, die vom optischen Filter erreicht werden muss. Es wurde in dieser Arbeit untersucht, ob ein solches Filter realisiert werden kann. Hierzu wurde unter Anwendung der Transfer-Matrix-Methode (TMM) zur Berechnung optischer Eigenschaften von Dünnschichtsystemen eine Struktur entwickelt, die den optischen Anforderungen an das Filter genügt. Grundlage für dieses Design ist ein mikromechanisch durchstimmbares Fabry-Pérot-Filter mit Bragg-Spiegeln. Zur Herstellung dieses mikromechanisch durchstimmbaren, optischen Filters wurde eine Prozesskette entwickelt, mit der Filter mit einer Transmission von über 60 % hergestellt wurden. Die mit dieser Prozesskette hergestellten Strukturen wurden topografisch und optisch charakterisiert. Der Vergleich der gemessenen Ergebnisse mit theoretischen Modellrechnungen zeigt eine hohe Übereinstimmung, sodass mit der verwendeten Methodik gute Prognosen von Filtereigenschaften getroffen werden können. Es kann außerdem ein verbessertes Design präsentiert werden, welches eine um 10 % höhere Transmission und ein doppelt so großes Auflösungsvermögen gegenüber dem ursprünglichen Design aufweist. Verbesserungspotenziale in der Prozesskette können präsentiert werden, mit denen die optischen und mechanischen Eigenschaften zukünftiger Filter optimiert werden können. Es wird gezeigt, dass ein optisches Filter hergestellt werden kann, mit dem die NO2-Konzentration im Abgas von Lastkraftwagen mit Dieselmotoren spektroskopisch bestimmt werden kann, sodass der Kraftstoffverbrauch gesenkt und die Schadstoffemissionen reduziert werden können. In Abgasnormen sind einzuhaltende NOX-Grenzwerte festgelegt. Sollten in Zukunft auch NO2-Emissionsgrenzwerte in den Abgasnormen festgelegt werden, kann deren Einhaltung mit dem vorgestellten Sensor-Prinzip überwacht werden. Auf diese Weise wird die Chance auf Einhaltung der NO2-Immissionsgrenzwerte der EU maßgeblich erhöht.
Resumo:
Bauchspeicheldrüsenkrebs ist die vierthäufigste Krebstodesursache in Deutschland. Durch die tiefe Lage des Organs im Körperinneren und das späte Auftreten von Symptomen erfolgt die Diagnose meist zu einem sehr späten Zeitpunkt, zu dem eine Resektion des Tumors in 80% der Fälle nicht mehr möglich ist. Die Hälfte der Patienten verstirbt bereits im ersten Jahr nach Diagnosestellung. Nach heutiger Erkenntnis entwickeln sich Adenokarzinome der Bauchspeicheldrüse über schrittweise histologische Veränderungen, die sogenannten PanIN Läsionen (pancreatic intraepithelial neoplasia). Bis heute fehlen jedoch klinisch einsetzbare Parameter für die Früherkennung des Karzinoms und seiner Vorstufen. Bisher ist nicht vollständig geklärt, welche molekularen Veränderungen hierbei eine wesentliche Rolle spielen. Das Ziel der vorliegenden Arbeit ist, die molekular- und zytogenetische Mutationsinzidenz und -Sequenz im Verlauf der neoplastischen Progression in der PanIN-Sequenz aufzuklären. Unter Anwendung der Fluoreszenz-in-situ-Hybridisierung (FISH) wird weiterführend die Frage beantwortet, ob sich der Nachweis von zytogenetischen Veränderungen in Zellen, die endoskopisch aus dem Pankreassekret gewonnen wurden, als neuartiger Ansatz für eine Frühdiagnostik nutzen lassen. Die molekulargenetischen Analysen zeigen, dass die PanIN-Läsionen aus Geweben mit chronischer Pankreatitis denen aus Geweben mit Karzinomen gleichzusetzen sind. Veränderungen in der Anzahl einzelner Chromosomen, sowie Basenmutationen finden sich bereits in den frühesten Gangläsionen. Die diffuse Verteilung von Genmutationen lässt einen mutagenen Feldeffekt vermuten, in welchem endogene (z.B. Pankreasenzyme, oxidativer Stress) und/oder exogene (z.B. Nikotin, Alkohol) Noxen auf verschiedene Pankreasgänge während einer langen Zeit einwirken. Auf der Basis der erhaltenen Daten kann angenommen werden, dass die prä-neoplastischen Läsionen in Geweben mit chronischer Pankreatitis eine Progression durchlaufen, in der sich sporadische Defekte wie Basenmutationen und Mitosefehler (Aneuplodien) akkumulieren. Die biologische Relevanz für die Tumorentstehung sollte jedoch immer im klinischen Kontext betrachtet werden. In Kombination mit weiteren Parametern (z.B. Alter, Dauer der Pankreatitis) könnte dies eine Möglichkeit bieten, das Risiko für die Entstehung eines Karzinoms individuell zu bestimmen und somit Patienten frühzeitig genug vor der Manifestation eines Tumors einer (Teil-)Resektion des Organs zuzuführen.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Die lokale Anlagerung molekularer Substanzen auf Oberflächen ist technologisch von großem Interesse. Die Beeinflussung selbstassemblierender Materialien bietet dabei große Vorteile, da sie kostengünstig und großflächig angewendet werden kann. Untersuchungen einer solchen Beeinflussung mithilfe von magnetischen Feldern wurden bisher jedoch noch nicht durchgeführt. Ursache hierfür ist das, insbesondere bei der Verwendung von diamagnetischen Substanzen, geringe induzierte magnetische Moment und die daraus resultierenden geringen magnetischen Kräfte. In der vorliegenden Arbeit wurde untersucht, ob es möglich ist, die lokale Anlagerung von selbstassemblierenden, diamagnetischen Substanzen durch die Verwendung von magnetischen Streufeldern zu beeinflussen und somit ein Schichtwachstum bevorzugt in gewünschten Bereichen eines Substrats zu erreichen. Es wurde ein austauschverschobenes Dünnschichtsystem über das Verfahren der ionenbeschuss-induzierten magnetischen Strukturierung mit einem künstlichen Domänenmuster in streifenförmiger Anordnung im Mikrometermaßstab erzeugt. Über experimentelle Untersuchungen wurden die aus diesem Schichtsystem austretenden magnetischen Streufelder erstmals quantifiziert. Die experimentell unvermeidbaren Mittelungen und technischen Limitierungen wurden mithilfe eines theoretischen Modells herausgerechnet, sodass letztlich die resultierende Magnetfeldlandschaft in allen drei Dimensionen über der Probenoberfläche erhalten wurde. Durch die Bestimmung der magnetischen Suszeptibilitäten der hier verwendeten thioethersubstituierten Subphthalocyanin-Derivate konnte somit die Berechnung der induzierten magnetischen Kräfte erfolgen, deren Vergleich mit Literaturwerten eine erfolgreiche Beeinflussung der Anlagerung dieser Substanzen erhoffen ließ. Aufgrund der Kombination diverser, anspruchsvoller Nachweisverfahren konnte der experimentelle Beweis für die erfolgreiche Positionierung der molekularen Substanzen durch die magnetischen Streufelder des Dünnschichtsystems erbracht werden. Zunächst wurde nachgewiesen, dass sich die Subphthalocyanin-Derivate auf der Probenoberfläche befinden und in einer mit der Periode der magnetischen Domänenstruktur korrelierenden Geometrie anlagern. Über Untersuchungen an Synchrotronstrahlungsquellen konnte die magnetische Streifenstruktur mit der Struktur der angelagerten Moleküle überlagert werden, sodass bekannt wurde, dass sich die Moleküle bevorzugt in den magnetisch begünstigten Bereichen anlagern. Um mögliche Einflüsse einer eventuell durch den magnetischen Strukturierungsprozess lokal modifizierten Substratoberfläche als Ursache für die lokale Molekülanlagerung ausschließen zu können, wurden zusätzliche Referenzmessungen durchgeführt. Alle Untersuchungen zeigen, dass die Molekülpositionierung auf der Wechselwirkung der diamagnetischen Substanzen mit den Streufeldern des Substrats zurückzuführen ist. Der im Rahmen dieser Arbeit entwickelte Mechanismus der magnetischen Beeinflussung der lokalen Molekülanlagerung besagt dabei, dass insbesondere die Oberflächendiffusion der selbstassemblierenden Substanz durch die in-plane-Magnetfeldkomponente beeinflusst wird und vermutlich die Nukleationsphase der Selbstassemblierung entscheidend für die lokale Materialabscheidung ist. Es konnte in dieser Arbeit somit gezeigt werden, dass eine Beeinflussung der Selbstassemblierung von diamagnetischen Subphthalocyanin-Derivaten und somit eine lokal bevorzugte Anlagerung dieser Substanzen durch magnetische Streufelder von magnetisch strukturierten austauschverschobenen Dünnschichtsystemen erreicht werden kann. Es resultiert somit eine neue Möglichkeit die technologisch wichtigen Selbstassemblierungsprozesse nun auch über magnetische Streufelder beeinflussen und kontrollieren zu können. Durch die hohe Flexibilität bei den Strukturierungsmöglichkeiten der magnetischen Domänengeometrien der hier verwendeten austauschverschobenen Dünnschichtsysteme resultieren aus den hier gezeigten Ergebnissen vielfältige Anwendungsmöglichkeiten im Bereich der Beschichtungstechnik.
Resumo:
Es werde das lineare Regressionsmodell y = X b + e mit den ueblichen Bedingungen betrachtet. Weiter werde angenommen, dass der Parametervektor aus einem Ellipsoid stammt. Ein optimaler Schaetzer fuer den Parametervektor ist durch den Minimax-Schaetzer gegeben. Nach der entscheidungstheoretischen Formulierung des Minimax-Schaetzproblems werden mit dem Bayesschen Ansatz, Spektralen Methoden und der Darstellung von Hoffmann und Laeuter Wege zur Bestimmung des Minimax- Schaetzers dargestellt und in Beziehung gebracht. Eine Betrachtung von Modellen mit drei Einflussgroeßen und gemeinsamen Eigenvektor fuehrt zu einer Strukturierung des Problems nach der Vielfachheit des maximalen Eigenwerts. Die Bestimmung des Minimax-Schaetzers in einem noch nicht geloesten Fall kann auf die Bestimmung einer Nullstelle einer nichtlinearen reellwertigen Funktion gefuehrt werden. Es wird ein Beispiel gefunden, in dem die Nullstelle nicht durch Radikale angegeben werden kann. Durch das Intervallschachtelungs-Prinzip oder Newton-Verfahren ist die numerische Bestimmung der Nullstelle moeglich. Durch Entwicklung einer Fixpunktgleichung aus der Darstellung von Hoffmann und Laeuter war es in einer Simulation moeglich die angestrebten Loesungen zu finden.
Resumo:
In der vorliegenden Arbeit ging es um die Erarbeitung, Anwendung und Beurteilung von quantitativen Analysenverfahren / Methoden für ein Monitoring von durch Bt-Mais verursachbaren Umwelteffekten im Boden. Die Ausgangsthese besagte, dass sich transgene Maisstreu beim mikrobiellen Abbau anders verhält als konventionelle. Bezugnehmend auf die These wurden zwei Freilandversuche (Freilandmikrokosmenmethode nach Raubuch 1997 über 2 Jahre, Quantifizierung des Maisstreuabbaus mit Hilfe kleiner Bodensäulen über 1 Jahr) und zwei Inkubationsversuche im Labor (INK bei drei verschiedenen Temperaturen über 49 Tage und INK mit verschiedenen landwirtschaftlich genutzten Böden über 49 Tage mit jeweils kontinuierlicher Respirationsratenermittlung nach Isermeyer 1952) sowie Inhaltsstoffbestimmungen der Maisstreu durchgeführt. Für alle Untersuchungen wurde Streu der vier Maissorten Novelis (transgen, Monsanto 810), Nobilis (Isolinie von Novelis), Valmont (transgen, Bt 176, Fa. Syngenta) und Prelude (Isolinie von Valmont) eingesetzt. Nach Beendigung der Laborversuche sowie des Freilandversuches nach der Freilandmikrokosmenmethode wurden mikrobielle Messgrößen wie Adenylategehalt, Ergosterolgehalt, Cmik- und Nmik-Gehalt am Boden-Streu-Gemisch bestimmt. Der Einsatz der Isotopentechnik (Bestimmung von 13C/12C an gemahlenem Boden-Streu-Gemisch bzw. gefriergetrocknetem K2SO4 als Extrakt aus dem Boden-Streu-Gemisch) ermöglichte eine genaue Quantifizierung der abgebauten Maisstreu und brachte dadurch Aufschluss über das Abbauverhalten verschiedener Maissorten. Bezüglich der Ermittlung der mikrobiellen Messgrößen ergab sich für die transgene Sorte Novelis* stets eine durchschnittlich geringere pilzliche Biomasse. Langfristig ergaben sich bei der Kohlenstoff- und Stickstoffdynamik keine Trends hinsichtlich transgener bzw. konventioneller Maisstreu. Sowohl im Freilandversuch nach der Mikrokosmenmethode als auch in den Inkubationsversuchen trat das Phänomen der kurzzeitigen Respirationsratenerhöhung der Mikroorganismen nach Zugabe der transgenen Maissorten auf, welches nicht bei Zugabe der konventionellen Maisstreu auszumachen war. ______________________________
Resumo:
Die sogenannte natürliche Lüftung - Lüftung infolge Temperatur- und Windeinfluss - über geöffnete Fenster und Türen ist im Wohnbereich noch immer die häufigste Form des Lüftens. Die Wirkung des Lüftens wird einerseits von den baulichen Gegebenheiten, z.B. der Fenstergröße, Öffnungsfläche und Laibungstiefe sowie andererseits durch den Nutzer, der z.B. eine Gardine oder Rollos anbringt, beeinflusst. Über den genauen Einfluss von verschiedenen Faktoren auf den Luftwechsel existieren zur Zeit noch keine gesicherten Erkenntnisse. Die Kenntnis des Luftwechsels ist jedoch für die Planung und Ausführung von Gebäuden in Hinblick auf das energiesparende Bauen sowie unter bauphysikalischen und hygienischen Aspekten wichtig. Der Einsatz von Dreh-Kippfenstern sowie das Lüften über die Kippstellung ist in Deutschland üblich, so dass die Bestimmung des Luftwechsels über Kippfenster von großem Interesse ist. Ziel dieser Arbeit ist es, den thermisch induzierten Luftwechsel über ein Kippfenster unter Berücksichtigung verschiedener Randbedingungen zu beschreiben. Hierbei werden Variationen der Kippweite, Laibungs- und Heizungsanordnung berücksichtigt. Die Arbeit gliedert sich in drei Teile: im ersten Teil werden messtechnische Untersuchungen durchgeführt, im zweiten Teil exemplarisch einige messtechnisch untersuchten Varianten mit CFD simuliert und im dritten Teil ein verbesserter Modellansatz zur Beschreibung des Luftwechsels aus den Messwerten abgeleitet. Die messtechnischen Untersuchungen bei einer Kippweite von 10 cm zeigen, dass bei dem Vorhandensein einer raumseitigen Laibung oder einem unterhalb des Fensters angeordneten Heizkörpers mit einer Reduktion des Volumenstroms von rund 20 Prozent gegenüber einem Fenster ohne Laibung bzw. ohne Heizkörper gerechnet werden muss. Die Kombination von raumseitiger Laibung und Heizung vermindert das Luftwechselpotential um ca. 40 Prozent. Simuliert wird die Variante ohne Laibung und ohne Heizung für die Kippweiten 6 cm und 10 cm. Die Ergebnisse der mit CFD simulierten Tracergas-Messung weisen für beide Kippweiten im Mittel rund 13 Prozent höhere Zuluftvolumenströme im Vergleich zu den Messwerten auf. Die eigenen Messdaten bilden die Grundlage für die Anpassung eines Rechenmodells. Werden vor Ort die lichte Fensterhöhe und -breite, die Kippweite, die Rahmen- und Laibungstiefe sowie die Abstände der Laibung zum Flügelrahmen gemessen, kann die Öffnungsfläche in Abhängigkeit von der Einbausituation bestimmt werden. Der Einfluss der Heizung - bei einer Anordnung unterhalb des Fensters - wird über den entsprechenden Cd-Wert berücksichtigt.
Resumo:
Bei der Bestimmung der irreduziblen Charaktere einer Gruppe vom Lie-Typ entwickelte Lusztig eine Theorie, in der eine sogenannte Fourier-Transformation auftaucht. Dies ist eine Matrix, die nur von der Weylgruppe der Gruppe vom Lie-Typ abhängt. Anhand der Eigenschaften, die eine solche Fourier- Matrix erfüllen muß, haben Geck und Malle ein Axiomensystem aufgestellt. Dieses ermöglichte es Broue, Malle und Michel füur die Spetses, über die noch vieles unbekannt ist, Fourier-Matrizen zu bestimmen. Das Ziel dieser Arbeit ist eine Untersuchung und neue Interpretation dieser Fourier-Matrizen, die hoffentlich weitere Informationen zu den Spetses liefert. Die Werkzeuge, die dabei entstehen, sind sehr vielseitig verwendbar, denn diese Matrizen entsprechen gewissen Z-Algebren, die im Wesentlichen die Eigenschaften von Tafelalgebren besitzen. Diese spielen in der Darstellungstheorie eine wichtige Rolle, weil z.B. Darstellungsringe Tafelalgebren sind. In der Theorie der Kac-Moody-Algebren gibt es die sogenannte Kac-Peterson-Matrix, die auch die Eigenschaften unserer Fourier-Matrizen besitzt. Ein wichtiges Resultat dieser Arbeit ist, daß die Fourier-Matrizen, die G. Malle zu den imprimitiven komplexen Spiegelungsgruppen definiert, die Eigenschaft besitzen, daß die Strukturkonstanten der zugehörigen Algebren ganze Zahlen sind. Dazu müssen äußere Produkte von Gruppenringen von zyklischen Gruppen untersucht werden. Außerdem gibt es einen Zusammenhang zu den Kac-Peterson-Matrizen: Wir beweisen, daß wir durch Bildung äußerer Produkte von den Matrizen vom Typ A(1)1 zu denen vom Typ C(1) l gelangen. Lusztig erkannte, daß manche seiner Fourier-Matrizen zum Darstellungsring des Quantendoppels einer endlichen Gruppe gehören. Deswegen ist es naheliegend zu versuchen, die noch ungeklärten Matrizen als solche zu identifizieren. Coste, Gannon und Ruelle untersuchen diesen Darstellungsring. Sie stellen eine Reihe von wichtigen Fragen. Eine dieser Fragen beantworten wir, nämlich inwieweit rekonstruiert werden kann, zu welcher endlichen Gruppe gegebene Matrizen gehören. Den Darstellungsring des getwisteten Quantendoppels berechnen wir für viele Beispiele am Computer. Dazu müssen unter anderem Elemente aus der dritten Kohomologie-Gruppe H3(G,C×) explizit berechnet werden, was bisher anscheinend in noch keinem Computeralgebra-System implementiert wurde. Leider ergibt sich hierbei kein Zusammenhang zu den von Spetses herrührenden Matrizen. Die Werkzeuge, die in der Arbeit entwickelt werden, ermöglichen eine strukturelle Zerlegung der Z-Ringe mit Basis in bekannte Anteile. So können wir für die meisten Matrizen der Spetses Konstruktionen angeben: Die zugehörigen Z-Algebren sind Faktorringe von Tensorprodukten von affinen Ringe Charakterringen und von Darstellungsringen von Quantendoppeln.
Resumo:
Aufgrund ihrer Vorteile hinsichtlich Dauerhaftigkeit und Bauwerkssicherheit ist in Deutschland seit 1998 die externe Vorspannung in Hohlkastenbrücken zur Regelbauweise geworden. Durch Verwendung der austauschbaren externen Vorspannung verspricht man sich im Brückenbau weitere Verbesserungen der Robustheit und damit eine Verlängerung der Lebensdauer. Trotz des besseren Korrosionsschutzes im Vergleich zur internen Vorspannung mit Verbund sind Schäden nicht völlig auszuschließen. Um die Vorteile der externen Vorspannung zu nutzen, ist daher eine periodische Überwachung der Spanngliedkräfte, z. B. während der Hauptprüfung des Bauwerks, durchzuführen. Für die Überwachung der Spanngliedkräfte bei Schrägseilbrücken haben sich die Schwingungsmessmethoden als wirtschaftlich und leistungsfähig erwiesen. Für die Übertragung der Methode auf den Fall der externen Vorspannung, wo kürzere Schwingungslängen vorliegen, waren zusätzliche Untersuchungen hinsichtlich der effektiven Schwingungslänge, der Randbedingungen sowie der effektiven Biegesteifigkeit erforderlich. Im Rahmen der vorliegenden Arbeit wurde das Modellkorrekturverfahren, basierend auf der iterativen Anpassung eines F.E.-Modells an die identifizierten Eigenfrequenzen und Eigenformen des Spanngliedes, für die Bestimmung der Spanngliedkräfte verwendet. Dieses Verfahren ermöglicht die Berücksichtigung der Parameter (Schwingungslänge, Randbedingungen und effektive Biegesteifigkeit) bei der Identifikation der effektiven Spanngliedkräfte. Weiterhin ist eine Modellierung jeder beliebigen Spanngliedausbildung, z. B. bei unterschiedlichen Querschnitten in den Verankerungs- bzw. Umlenkbereichen, gewährleistet. Zur Anwendung bei der Ermittlung der Spanngliedkräfte wurde eine spezielle Methode, basierend auf den besonderen dynamischen Eigenschaften der Spannglieder, entwickelt, bei der die zuvor genannten Parameter innerhalb jedes Iterationsschrittes unabhängig korrigiert werden, was zur Robustheit des Identifikationsverfahrens beiträgt. Das entwickelte Verfahren ist in einem benutzerfreundlichen Programmsystem implementiert worden. Die erzielten Ergebnisse wurden mit dem allgemeinen Identifikationsprogramm UPDATE_g2 verglichen; dabei ist eine sehr gute Übereinstimmung festgestellt worden. Beim selbst entwickelten Verfahren wird die benötigte Rechenzeit auf ca. 30 % reduziert [100 sec à 30 sec]. Es bietet sich daher für die unmittelbare Auswertung vor Ort an. Die Parameteridentifikationsverfahren wurden an den Spanngliedern von insgesamt sechs Brücken (vier unterschiedliche Spannverfahren) angewendet. Die Anzahl der getesteten Spannglieder beträgt insgesamt 340. Die Abweichung zwischen den durch Schwingungs-messungen identifizierten und gemessenen (bei einer Brücke durch eine Abhebekontrolle) bzw. aufgebrachten Spanngliedkräften war kleiner als 3 %. Ferner wurden die Auswirkungen äußerer Einflüsse infolge Temperaturschwankungen und Verkehr bei den durchgeführten Messungen untersucht. Bei der praktischen Anwendung sind Besonderheiten aufgetreten, die durch die Verwendung des Modellkorrekturverfahrens weitgehend erfasst werden konnten. Zusammenfassend lässt sich sagen, dass die Verwendung dieses Verfahrens die Genauigkeit im Vergleich mit den bisherigen Schwingungsmessmethoden beachtlich erhöht. Ferner wird eine Erweiterung des Anwendungsbereiches auch auf Spezialfälle (z. B. bei einem unplanmäßigen Anliegen) gewährleistet.
Resumo:
Die in dieser Arbeit durchgeführten Untersuchungen zeigen, daß es möglich ist, komplexe thermische Systeme, unter Verwendung der thermisch-, elektrischen Analogien, mit PSpice zu simulieren. Im Mittelpunkt der Untersuchungen standen hierbei Strangkühlkörper zur Kühlung von elektronischen Bauelementen. Es konnte gezeigt werden,daß alle Wärmeübertragungsarten, (Wärmeleitung, Konvektion und Wärmestrahlung) in der Simulation berücksichtigt werden können. Für die Berechnung der Konvektion wurden verschiedene Methoden hergeleitet. Diese gelten zum einen für verschiedene Kühlkörpergeometrien, wie z.B. ebene Flächen und Kühlrippenzwischenräume, andererseits unterscheiden sie sich, je nachdem, ob freie oder erzwungene Konvektion betrachtet wird. Für die Wärmestrahlung zwischen den Kühlrippen wurden verschiedenen Berechnungsmethoden entwickelt. Für die Simulation mit PSpice wurde die Berechnung der Wärmestrahlung zwischen den Kühlrippen vereinfacht. Es konnte gezeigt werden, daß die Fehler, die durch die Vereinfachung entstehen, vernachlässigbar klein sind. Für das thermische Verhalten einer zu kühlenden Wärmequelle wurde ein allgemeines Modell entworfen. Zur Bestimmung der Modellparameter wurden verschiedene Meßverfahren entwickelt. Für eine im Fachgebiet Elektromechanik entwickelte Wärmequelle zum Test von Kühlvorrichtungen wurde mit Hilfe dieser Meßverfahren eine Parameterbestimmung durchgeführt. Die Erstellung des thermischen Modells eines Kühlkörpers für die Simulation in PSpice erfordert die Analyse der Kühlkörpergeometrie. Damit diese Analyse weitestgehend automatisiert werden kann, wurden verschiedene Algorithmen unter Matlab entwickelt. Es wurde ein Algorithmus entwickelt, der es ermöglicht, den Kühlkörper in Elementarzellen zu zerlegen, die für die Erstellung des Simulationsmodells benötigt werden. Desweiteren ist es für die Simulation notwendig zu wissen, welche der Elementarzellen am Rand des Kühlkörpers liegen, welche der Elementarzellen an einem Kühlrippenzwischenraum liegen und welche Kühlkörperkanten schräg verlaufen. Auch zur Lösung dieser Aufgaben wurden verschiedene Algorithmen entwickelt. Diese Algorithmen wurden zu einem Programm zusammengefaßt, das es gestattet, unterschiedliche Strangkühlkörper zu simulieren und die Simulationsergebnisse in Form der Temperaturverteilung auf der Montagefläche des Kühlkörpers grafisch darzustellen. Es können stationäre und transiente Simulationen durchgeführt werden. Desweiteren kann der thermische Widerstand des Kühlkörpers RthK als Funktion der Verlustleistung der Wärmequelle dargestellt werden. Zur Verifikation der Simulationsergebnisse wurden Temperaturmessungen an Kühlkörpern durchgeführt und mit den Simulationsergebnissen verglichen. Diese Vergleiche zeigen, daß die Abweichungen im Bereich der Streuung der Temperaturmessung liegen. Das hier entwickelte Verfahren zur thermischen Simulation von Strangkühlkörpern kann somit als gut bewertet werden.
Resumo:
Zur Modellierung von Vergasungs- und Verbrennungsprozessen zur energetischen Nutzung von Biomasse ist die Kenntnis von reaktionskinetischen Daten für die Sauerstoff-Oxidation von Biomassepyrolysaten erforderlich. Eine ausführliche Literaturübersicht zeigt den Stand der Forschung bezüglich der experimentellen Ermittlung von reaktionskinetischen Parametern für die Oxidation von Pyrolysaten aus Lignin, Cellulose und pflanzlicher Biomasse sowie der Suche nach einem plausiblen Reaktionsmechanismus für die Reaktion von Sauerstoff mit festen Kohlenstoffmaterialien. Es wird eine Versuchsanlage mit einem quasistationär betriebenen Differentialreaktor konstruiert, die eine Messung der Reaktionskinetik und der reaktiven inneren Oberfläche (RSA) für die Reaktion eines Pyrolysats aus Maispflanzen mit Sauerstoff ermöglicht. Die getrockneten und zerkleinerten Maispflanzen werden 7 Minuten lang bei 1073 K in einem Drehrohrofen pyrolysiert. Das Pyrolysat zeichnet sich vor allem durch seine hohe Porosität von über 0,9 und seinen hohen Aschegehalt von 0,24 aus. Die RSA wird nach der Methode der Messung von Übergangskinetiken (TK) bestimmt. Die Bestimmung der RSA erfolgt für die Reaktionsprodukte CO und CO2 getrennt, für die entsprechend ermittelten Werte werden die Bezeichnungen CO-RSA und CO2-RSA eingeführt. Die Abhängigkeit dieser Größen von der Sauerstoffkonzentration läßt sich durch eine Langmuir-Isotherme beschreiben, ebenso das leichte Absinken der CO-RSA mit der Kohlendioxidkonzentration. Über dem Abbrand zeigen sich unterschiedliche Verläufe für die CO-RSA, CO2-RSA und die innere Oberfläche nach der BET-Methode. Zur Charakterisierung der Oberflächenzwischenprodukte werden temperaturprogrammierte Desorptionsversuche (TPD) durchgeführt. Die Ergebnisse zeigen, daß eine Unterscheidung in zwei Kohlenstoff-Sauerstoff-Oberflächenkomplexe ausreichend ist. Die experimentellen Untersuchungen zum Oxidationsverlauf werden im kinetisch bestimmten Bereich durchgeführt. Dabei werden die Parameter Temperatur, Sauerstoff-, CO- und CO2-Konzentration variiert. Anhand der Ergebnisse der reaktionskinetischen Untersuchungen wird ein Reaktionsmechanismus für die Kohlenstoff-Sauerstoff-Reaktion entwickelt. Dieser Reaktionsmechanismus umfaßt 7 Elementarreaktionen, für welche die reaktionskinetischen Parameter numerisch ermittelt werden. Darüber hinaus werden reaktionskinetische Parameter für einfachere massenbezogene Reaktionsgeschwindigkeitsansätze berechnet und summarische Reaktionsgeschwindigkeitsansätze für die Bildung von CO und CO2 aus dem Reaktionsmechanismus hergeleitet.
Resumo:
Das Werkstoffverhalten von stahlfaserfreiem bzw. stahlfaserverstärktem Stahlbeton unter biaxialle Druck- Zugbeanspruchung wurde experimentell und theoretisch untersucht. Die Basis der experimentellen Untersuchungen waren zahlreiche Versuche, die in der Vergangenheit an faserfreiem Stahlbetonscheiben zur Bestimmung des Werkstoffverhaltens von gerissenem Stahlbeton im ebenen Spannungszustand durchgeführt wurden. Bei diesen Untersuchungen wurde festgestellt, dass infolge einer Querzugbeanspruchung eine Abminderung der biaxialen Druckfestigkeit entsteht. Unter Berücksichtigung dieser Erkenntnisse sind zur Verbesserung der Werkstoffeigenschaften des Betons, Stahlbetonscheiben aus stahlfaserverstärktem Beton hergestellt worden. Die aus der Literatur bekannten Werkstoffmodelle für Beton sowie Stahlbeton, im ungerissenen und gerissenen Zustand wurden hinsichtlich der in der Vergangenheit ermittelten Materialeigenschaften des Betons bzw. Stahlbetons unter proportionalen sowie nichtproportionalen äußeren Belastungen erklärt und kritisch untersucht. In den frischen Beton wurden Stahlfasern hinzugegeben. Dadurch konnte die Festigkeits- und die Materialsteifigkeitsabminderung infolge Rissbildung, die zur Schädigung des Verbundwerkstoffs Beton führt, reduziert werden. Man konnte sehen, dass der Druckfestigkeitsabminderungsfaktor und insbesondere die zur maximal aufnehmbaren Zylinderdruckfestigkeit gehörende Stauchung, durch Zugabe von Stahlfasern besser begrenzt wird. Die experimentelle Untersuchungen wurden an sechs faserfreien und sieben stahlfaserverstärkten Stahlbetonscheiben unter Druck-Zugbelastung zur Bestimmung des Verhaltens des gerissenen faserfreien und stahlfaserverstärkten Stahlbetons durchgeführt. Die aus eigenen Versuchen ermittelten Materialeigenschaften des Betons, des stahlfaserverstärkten Betons und Stahlbetons im gerissenen Zustand wurden dargelegt und diskutiert. Bei der Rissbildung des quasi- spröden Werkstoffs Beton und dem stahlfaserverstärkten Beton wurde neben dem plastischen Fließen, auch die Abnahme des Elastizitätsmoduls festgestellt. Die Abminderung der aufnehmbaren Festigkeit und der zugehörigen Verzerrung lässt sich nicht mit der klassischen Fließtheorie der Plastizität ohne Modifizierung des Verfestigungsgesetzes erfassen. Es wurden auf elasto-plastischen Werkstoffmodellen basierende konstitutive Beziehungen für den faserfreien sowie den stahlfaserverstärkten Beton vorgeschlagen. Darüber hinaus wurde in der vorliegenden Arbeit eine auf dem elasto-plastischen Werkstoffmodell basierende konstitutive Beziehung für Beton und den stahlfaser-verstärkten Beton im gerissenen Zustand formuliert. Die formulierten Werkstoffmodelle wurden mittels dem in einer modularen Form aufgebauten nichtlinearen Finite Elemente Programm DIANA zu numerischen Untersuchungen an ausgewählten experimentell untersuchten Flächentragwerken, wie scheibenartigen-, plattenartigen- und Schalentragwerken aus faserfreiem sowie stahlfaserverstärktem Beton verwendet. Das entwickelte elasto-plastische Modell ermöglichte durch eine modifizierte effektive Spannungs-Verzerrungs-Beziehung für das Verfestigungsmodell, nicht nur die Erfassung des plastischen Fließens sondern auch die Berücksichtigung der Schädigung der Elastizitätsmodule infolge Mikrorissen sowie Makrorissen im Hauptzugspannungs-Hauptdruckspannungs-Bereich. Es wurde bei den numerischen Untersuchungen zur Ermittlung des Last-Verformungsverhaltens von scheibenartigen, plattenartigen- und Schalentragwerken aus faserfreiem und stahlfaserverstärktem Stahlbeton, im Vergleich mit den aus Versuchen ermittelten Ergebnissen, eine gute Übereinstimmung festgestellt.