133 resultados para generative Verfahren
Resumo:
Die vorliegende Arbeit befasst sich mit den Fehlern, die bei der Berechnung von Tragstrukturen auftreten können, dem Diskretisierungs- und dem Modellfehler. Ein zentrales Werkzeug für die Betrachtung des lokalen Fehlers in einer FE-Berechnung sind die Greenschen Funktionen, die auch in anderen Bereichen der Statik, wie man zeigen kann, eine tragende Rolle spielen. Um den richtigen Einsatz der Greenschen Funktion mit der FE-Technik sicherzustellen, werden deren Eigenschaften und die konsistente Generierung aufgezeigt. Mit dem vorgestellten Verfahren, der Lagrange-Methode, wird es möglich auch für nichtlineare Probleme eine Greensche Funktion zu ermitteln. Eine logische Konsequenz aus diesen Betrachtungen ist die Verbesserung der Einflussfunktion durch Verwendung von Grundlösungen. Die Greensche Funktion wird dabei in die Grundlösung und einen regulären Anteil, welcher mittels FE-Technik bestimmt wird, aufgespalten. Mit dieser Methode, hier angewandt auf die Kirchhoff-Platte, erhält man deutlich genauere Ergebnisse als mit der FE-Methode bei einem vergleichbaren Rechenaufwand, wie die numerischen Untersuchungen zeigen. Die Lagrange-Methode bietet einen generellen Zugang zur zweiten Fehlerart, dem Modellfehler, und kann für lineare und nichtlineare Probleme angewandt werden. Auch hierbei übernimmt die Greensche Funktion wieder eine tragende Rolle, um die Auswirkungen von Parameteränderungen auf ausgewählte Zielgrößen betrachten zu können.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
At present, a fraction of 0.1 - 0.2% of the patients undergoing surgery become aware during the process. The situation is referred to as anesthesia awareness and is obviously very traumatic for the person experiencing it. The reason for its occurrence is mostly an insufficient dosage of the narcotic Propofol combined with the incapability of the technology monitoring the depth of the patient’s anesthetic state to notice the patient becoming aware. A solution can be a highly sensitive and selective real time monitoring device for Propofol based on optical absorption spectroscopy. Its working principle has been postulated by Prof. Dr. habil. H. Hillmer and formulated in DE10 2004 037 519 B4, filed on Aug 30th, 2004. It consists of the exploitation of Intra Cavity Absorption effects in a two mode laser system. In this Dissertation, a two mode external cavity semiconductor laser, which has been developed previously to this work is enhanced and optimized to a functional sensor. Enhancements include the implementation of variable couplers into the system and the implementation of a collimator arrangement into which samples can be introduced. A sample holder and cells are developed and characterized with a focus on compatibility with the measurement approach. Further optimization concerns the overall performance of the system: scattering sources are reduced by re-splicing all fiber-to-fiber connections, parasitic cavities are eliminated by suppressing the Fresnel reflexes of all one fiber ends by means of optical isolators and wavelength stability of the system is improved by the implementation of thermal insulation to the Fiber Bragg Gratings (FBG). The final laser sensor is characterized in detail thermally and optically. Two separate modes are obtained at 1542.0 and 1542.5 nm, tunable in a range of 1nm each. Mode Full Width at Half Maximum (FWHM) is 0.06nm and Signal to Noise Ratio (SNR) is as high as 55 dB. Independent of tuning the two modes of the system can always be equalized in intensity, which is important as the delicacy of the intensity equilibrium is one of the main sensitivity enhancing effects formulated in DE10 2004 037 519 B4. For the proof of concept (POC) measurements the target substance Propofol is diluted in the solvents Acetone and DiChloroMethane (DCM), which have been investigated for compatibility with Propofol beforehand. Eight measurement series (two solvents, two cell lengths and two different mode spacings) are taken, which draw a uniform picture: mode intensity ratio responds linearly to an increase of Propofol in all cases. The slope of the linear response indicates the sensitivity of the system. The eight series are split up into two groups: measurements taken in long cells and measurements taken in short cells.
Resumo:
Familiale Bewegungssozialisation – Zum Einfluss der Herkunftsfamilie auf die Bewegungssozialisation von Grundschulkindern. Die zentrale Fragestellung der Schrift ist, welchen Einfluss die soziale Herkunft auf die Bewegungssozialisation und Bewegungsentwicklung von Kindern im Grundschulalter hat. Die Auswirkungen sozialer Ungleichheit auf die Bewegungssozialisation, insbesondere die motorische Entwicklung, wurden in der Sportwissenschaft noch unzureichend untersucht. Der Arbeit liegt die Sozialisationstheorie von Witte (1994) zugrunde; mit ihrer Hilfe wird versucht die motorische Entwicklung theoriegeleitet zu erklären. Dafür werden Merkmale der Bewegungssozialisation und der motorischen Entwicklung in das theoretische Rahmenkonzept von Witte (1994) eingesetzt. Zu Beginn (Kapitel 1) erklärt die Arbeit den Begriff der sozialen Herkunft. Es werden der soziale Status, die Familienform und der Migrationshintergrund als Bestandteile der sozialen Herkunft definiert. Im weiteren Verlauf (Kapitel 2) wird die Sozialisationsinstanz Familie und die verschiedenen Familienformen vor dem Hintergrund sozialer Ungleichheit dargelegt. Das dritte Kapitel widmet sich dem sozialisationstheoretischen Konzept. Es werden die Sozialisationstheorie von Hurrelmann, die Körper- und Bewegungskarriere von Baur und das theoretische Rahmenkonzept der Sozialisation von Witte erklärt. Kapitel 4 beschreibt den Forschungsstand und Kapitel 5 stellt die Modellbildung und die Herleitung der Hypothesen dar. Die empirische Untersuchung fand an ausgewählten Grundschulen der Stadt Kassel statt. Insgesamt wurden 251 Kinder im Alter von 7-10 Jahren mit dem AST 6-11 untersucht und deren Eltern mit einem eigens entwickelten Fragebogen befragt. Die Daten wurden mit Hilfe von multivariaten Verfahren in Beziehung zueinander gesetzt. Die Ergebnisse zeigen, dass sich Grundschulkinder hinsichtlich ihrer motorischen Entwicklung nicht in Abhängigkeit der sozialen Herkunft unterscheiden. Jedoch ist das Sportklima der Familien sehr stark abhängig von der sozialen Herkunft. Es wird deutlich, dass Kinder aus sozial benachteiligten Familien, aus Ein-Eltern-Familien und mit Migrationshintergrund schlechtere Möglichkeiten haben sich in ihrer Bewegungssozialisation zu entfalten. Die Prüfung des Sozialisationsmodells zeigt, neben der guten Operationalisierbarkeit des Modells, dass die Modellvariable „Orientierung“ (Orientierung der Familie hinsichtlich der Bedeutung von Bewegung und Sport) den größten Einfluss auf die Bewegungssozialisation von Kindern hat.
Resumo:
In dieser Arbeit werden mithilfe der Likelihood-Tiefen, eingeführt von Mizera und Müller (2004), (ausreißer-)robuste Schätzfunktionen und Tests für den unbekannten Parameter einer stetigen Dichtefunktion entwickelt. Die entwickelten Verfahren werden dann auf drei verschiedene Verteilungen angewandt. Für eindimensionale Parameter wird die Likelihood-Tiefe eines Parameters im Datensatz als das Minimum aus dem Anteil der Daten, für die die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, und dem Anteil der Daten, für die diese Ableitung nicht positiv ist, berechnet. Damit hat der Parameter die größte Tiefe, für den beide Anzahlen gleich groß sind. Dieser wird zunächst als Schätzer gewählt, da die Likelihood-Tiefe ein Maß dafür sein soll, wie gut ein Parameter zum Datensatz passt. Asymptotisch hat der Parameter die größte Tiefe, für den die Wahrscheinlichkeit, dass für eine Beobachtung die Ableitung der Loglikelihood-Funktion nach dem Parameter nicht negativ ist, gleich einhalb ist. Wenn dies für den zu Grunde liegenden Parameter nicht der Fall ist, ist der Schätzer basierend auf der Likelihood-Tiefe verfälscht. In dieser Arbeit wird gezeigt, wie diese Verfälschung korrigiert werden kann sodass die korrigierten Schätzer konsistente Schätzungen bilden. Zur Entwicklung von Tests für den Parameter, wird die von Müller (2005) entwickelte Simplex Likelihood-Tiefe, die eine U-Statistik ist, benutzt. Es zeigt sich, dass für dieselben Verteilungen, für die die Likelihood-Tiefe verfälschte Schätzer liefert, die Simplex Likelihood-Tiefe eine unverfälschte U-Statistik ist. Damit ist insbesondere die asymptotische Verteilung bekannt und es lassen sich Tests für verschiedene Hypothesen formulieren. Die Verschiebung in der Tiefe führt aber für einige Hypothesen zu einer schlechten Güte des zugehörigen Tests. Es werden daher korrigierte Tests eingeführt und Voraussetzungen angegeben, unter denen diese dann konsistent sind. Die Arbeit besteht aus zwei Teilen. Im ersten Teil der Arbeit wird die allgemeine Theorie über die Schätzfunktionen und Tests dargestellt und zudem deren jeweiligen Konsistenz gezeigt. Im zweiten Teil wird die Theorie auf drei verschiedene Verteilungen angewandt: Die Weibull-Verteilung, die Gauß- und die Gumbel-Copula. Damit wird gezeigt, wie die Verfahren des ersten Teils genutzt werden können, um (robuste) konsistente Schätzfunktionen und Tests für den unbekannten Parameter der Verteilung herzuleiten. Insgesamt zeigt sich, dass für die drei Verteilungen mithilfe der Likelihood-Tiefen robuste Schätzfunktionen und Tests gefunden werden können. In unverfälschten Daten sind vorhandene Standardmethoden zum Teil überlegen, jedoch zeigt sich der Vorteil der neuen Methoden in kontaminierten Daten und Daten mit Ausreißern.
Resumo:
Die vorliegende Arbeit ist Teil eines Verbund-Forschungsprojektes mit dem Ziel, eine Präzisions-Bodenbearbeitung in Abhängigkeit von verschiedenen Bodenparametern sowie dem Bodenbedeckungsgrad zu realisieren. Ziel dieses Teilprojektes war die Bereitstellung einer Online-Messung des Bedeckungsgrades, um die Bearbeitungsintensität während der Feldüberfahrt regeln zu können: Ein Kamerasensor vorne am Schlepper ermittelt die Bodenbedeckung und ein Tiefen-Sollwert wird an das Regelsystem eines Gerätes zur teilfächenspezifischen Bodenbearbeitung ausgegeben. Da unter Feldbedingungen Methoden zur Bedeckungsgradmessung nur relativ zueinander verglichen werden können, wurde zunächst ein Laborvergleich mit wohldefinierten Bodenbedeckungen durchgeführt, um die prinzipiellen Stärken und Schwächen von Bildanalyse sowie zwei visuellen Methoden (Gitterraster-Methode und „Meterstick-Methode“) zu ermitteln: • Eine visuelle Methode, die auf einer begrenzten Anzahl von einfachen Stichprobenbeobachtungen beruht (Gitter), überschätzte den Bedeckungsgrad systematisch, wobei dieser Effekt unter Feldbedingungen vermutlich klein gegenüber der bekannten Schwankungsbreite zwischen Messungen verschiedener Beobachter ist. • Eine visuelle Methode, die auch Größe und Orientierung des Strohs berücksichtigt (Meterstick), lieferte präzise mittlere Messwerte. Diese Methode war die mit Abstand arbeitsaufwändigste. • Nach einer einfachen Korrektur des Abbildungsfehlers des Kameraobjektivs war auch die Bildverarbeitungs-Methode in der Lage, die bekannten tatsächlichen Bedeckungsgrade exakt darzustellen, bei gleichzeitig der geringsten Schwankungsbreite der Messwerte. Die Online-Messung der Bodenbedeckung durch Ernterückstände ist bisher jedoch ungelöst. Obwohl in früheren Untersuchungen Texturmerkmale oder Farbunterschiede erfolgreich genutzt wurden, um den Bedeckungsgrad zu bestimmen, wird eine Bedienperson zur interaktiven Festlegung bestimmter Parameter benötigt. Um den Prototypen eines onlinefähigen Kamerasensors zu entwickeln, wurden geeignete Ausrüstung und Bedingungen zur Bildaufnahme untersucht und verschiedene Auswertealgorithmen mit Hilfe einer wissenschaftlichen Bildanalysesoftware geschrieben und getestet: • Da im Nahinfraroten zwischen ca. 800 und 1400 nm der größte Intensitäts-Kontrast zwischen Stroh und Boden besteht wurde zur Bildaufnahme eine Schwarz-Weiss-CCD-Kamera mit aufgesetztem Infrarotfilter gewählt. Eine Diffusor-Box sorgte für homogene Beleuchtungsbedingungen. • Zwei auf Kantendetektion und automatischer Schwellwertsetzung basierende Versionen („A“ und „B“) eines „klassischen“ Segmentierungsalgorithmus wurden geschrieben. Durch einen iterativen Ansatz konnten geeignete Thresholding-Verfahren abhängig von der Größenordnung der Bodenbedeckung verwendet werden. Die zur Online-Regelung der Bearbeitungstiefe nötige Beschränkung der Prozesslaufzeit auf ca. 1000 ms/Bild konnte eingehalten werden. • Eine alternative automatisierbare Kontrollmethode wurde entwickelt, welche Merkmale der Grauwerthistogramme der Stroh/Boden-Bilder auswertet (Algorithmus „C“). Dieser Ansatz ist nochmals deutlich schneller als eine Bildsegmentierung (ca. 5 – 10 Bilder/s). • Der Sensor wurde an einem Quad montiert und die Bodenbedeckung auf drei Testfeldern untersucht. Zwischen den Messergebnissen eines Algorithmus vom Typ A/B und dem Ansatz C wurde eine Pearson-Korrelation von 0,967 für die Messwertegesamtheit gefunden. • Auf Versuchsparzellen mit definiert aufgebrachten Strohmengen (ein weiteres Teil-projekt) wurden an GPS-referenzierten Punkten Bilder mit dem Sensor aufgenommen und Referenzmessungen mit der visuellen Gitterraster-Methode durchgeführt. Zwischen der Bildverarbeitung (A, B) und dem Gitter ergaben sich befriedigende Pearson-Korrelationen im Bereich von 0,7 – 0,8. Allerdings waren für hohe Bedeckungen die Ergebnisse des Sensors meist signifikant niedrigere als der Mittelwert von drei das Gitter auszählenden Personen. Eine Kontrolle mit Ansatz C ergab, dass die Histogramm-Merkmale der einzelnen Bilder deutlich besser mit den per Bildverarbeitung ermittelten Bedeckungsgraden korrelierten als mit den Gittermessungen. – Insgesamt erwies sich die schnelle Bildverarbeitung als geeignet für den Einsatz als neue Referenzmethode zur Messung der Bodenbedeckung durch Ernterückstände. • Da der Aufbau des Sensors ohne die Diffusor-Box praxisgerechter ist, besteht weiterer Forschungsbedarf in Bezug auf die dann auftretenden Probleme durch stark wechselnde Beleuchtung und Schattenwurf. • In einem letzten Schritt wurde der Kamerasensor erfolgreich in ein bereits entwickeltes System zur teilflächenspezifischen Bodenbearbeitung an der Universität Kiel integriert. Eine Regelung der Arbeitstiefe durch den Kamerasensor war problemlos möglich, allerdings gilt es noch belastbare Kriterien für die Vorgabe von Tiefen-Sollwerten in Abhängigkeit vom Bedeckungsgrad zu entwickeln.
Resumo:
Zum 1. November 2010 wird in Deutschland der neue Personalausweis starten, der gegenüber dem bisherigen Dokument drei neue Funktionen enthält: Die Speicherung biometrischer Daten, die optionale Signaturfunktion und den elektronischen Identitätsnachweis, also eine technische Funktion zur elektronischen Authentisierung. Die Rechtsgrundlagen wurden mit der Verabschiedung des neuen Gesetzes über Personalausweise und den elektronischen Identitätsnachweis sowie zur Änderung weiterer Vorschriften am 18. Dezember 2008 im Bundestag gelegt. Wie bei anderen Gesetzgebungsverfahren sind diesem formalen Verfahren wissenschaftliche und politische, in diesem Fall auch technische, Diskussionen vorangegangen, die darüber hinaus während des Gesetzgebungsverfahrens fortgesetzt wurden. Die Studie beschreibt in einem ersten Schritt die Eckdaten und wesentlichen Inhalte der Diskussion und des Gesetzgebungsverfahrens. Im Anschluss erfolgt eine Darlegung einzelner Einflussfaktoren und „Pfade“ der rechtlichen, technischen und politischen Entwicklung, die Einfluss auf bestimmte Innovationsentscheidungen hatten. Daran schließt sich eine Betrachtung der einzelnen Akteure an, bevor der Gesamtprozess bewertet wird.
Resumo:
Die Konvektionstrocknung ist eine der ältesten Methoden zur Konservierung von Lebensmitteln. Es ist bekannt, dass Agrarprodukte temperaturempfindlich sind. Bei Überhitzung erleiden sie chemische und physikalische Veränderungen, die ihre Qualität vermindern. In der industriellen Praxis wird die Konvektionstrocknung in der Regel auf Grundlage empirisch ermittelter Werte durchgeführt, welche die Produkttemperatur nicht berücksichtigen. Es ist deshalb nicht sichergestellt, ob der Prozess optimal oder auch nur gut betrieben wird. Inhalt dieser Arbeit ist ein Vergleich der klassischen einstufigen Konvektionstrocknung mit einer Prozessführungsstrategie bei der die Produkttemperatur als Regelgröße eingeführt wird. Anhand der Untersuchung des Trocknungsverhaltens von Äpfeln werden die beiden Verfahren analysiert, die erhaltenen Ergebnisse miteinander verglichen und daraus optimierte Trocknungsbedingungen abgeleitet. Die für dieses Projekt entwickelte Prozessanlage erlaubt die simultane Untersuchung sämtlicher wesentlicher Temperaturen, der Gewichtsveränderung und der optischen Qualitätskriterien. Gleichzeitig ist es möglich, entweder die Lufttemperatur oder die Temperatur des Produktes zur regeln, während die jeweils andere Größe als Messwert erfasst wird. Es kann weiterhin zwischen Durch- und Überströmung gewählt werden.
Resumo:
Diese Arbeit behandelt die numerische Simulation von Rührbehältern und Flotationszellen mit Hilfe kommerzieller Software basierend auf einer Finite-Volumen-Methode. Ziel der Untersuchungen ist es, ein Verfahren zu entwickeln, das eine Beurteilung der Anlagen in Abhängigkeit verschiedener geometrischer und strömungsmechanischer Parameter ermöglicht und so unterstützend zur Prozessauslegung beiträgt. An zwei einfachen Geometrien (Strömungsrohr, Scheibenrührer) werden grundsätzliche Parameter und Fragestellungen erläutert, welche für die Simulation von Bedeutung sind und der Verifzierung des eingesetzten Programmpakets dienen. Die Betrachtung industriell eingesetzter Flotationsmaschinen erfolgt beispielhaft an zwei Anlagen mit unterschiedlichen Rotor-Stator-Systemen. Eine Modellzelle im Labormaßstab dient zur Berechnung der Verweilzeitverteilung und zur Charakterisierung wichtiger Einflussgrößen (Drehzahl, Volumenstrom, Durchströmungskonfiguration, Partikelmasse, Randbedingung). Die numerisch gewonnenen Ergebnisse werden dabei erfolgreich mit Experimenten validiert. Ein Flotationssegment in Originalgröße liefert weitere Ergebnisse zur Hydrodynamik. Die Berechnung wird stationär und transient vorgenommen, um die Bedeutung der Zeitabhängigkeit bewerten zu können. Damit ist ferner eine Aussage zum Einlaufverhalten der Strömung möglich, indem das Drehmoment am Rührer als Funktion der Zeit ausgewertet wird. Eine Bewertung erfolgt über die Bestimmung der Verweilzeitverteilung in Abhängigkeit verschiedener Strömungskonfigurationen.
Resumo:
Energy production from biomass and the conservation of ecologically valuable grassland habitats are two important issues of agriculture today. The combination of a bioenergy production, which minimises environmental impacts and competition with food production for land with a conversion of semi-natural grasslands through new utilization alternatives for the biomass, led to the development of the IFBB process. Its basic principle is the separation of biomass into a liquid fraction (press fluid, PF) for the production of electric and thermal energy after anaerobic digestion to biogas and a solid fraction (press cake, PC) for the production of thermal energy through combustion. This study was undertaken to explore mass and energy flows as well as quality aspects of energy carriers within the IFBB process and determine their dependency on biomass-related and technical parameters. Two experiments were conducted, in which biomass from semi-natural grassland was conserved as silage and subjected to a hydrothermal conditioning and a subsequent mechanical dehydration with a screw press. Methane yield of the PF and the untreated silage was determined in anaerobic digestion experiments in batch fermenters at 37°C with a fermentation time of 13-15 and 27-35 days for the PF and the silage, respectively. Concentrations of dry matter (DM), ash, crude protein (CP), crude fibre (CF), ether extract (EE), neutral detergent fibre (NDF), acid detergent fibre (ADF), acid detergent ligning (ADL) and elements (K, Mg, Ca, Cl, N, S, P, C, H, N) were determined in the untreated biomass and the PC. Higher heating value (HHV) and ash softening temperature (AST) were calculated based on elemental concentration. Chemical composition of the PF and mass flows of all plant compounds into the PF were calculated. In the first experiment, biomass from five different semi-natural grassland swards (Arrhenaterion I and II, Caricion fuscae, Filipendulion ulmariae, Polygono-Trisetion) was harvested at one late sampling (19 July or 31 August) and ensiled. Each silage was subjected to three different temperature treatments (5°C, 60°C, 80°C) during hydrothermal conditioning. Based on observed methane yields and HHV as energy output parameters as well as literature-based and observed energy input parameters, energy and green house gas (GHG) balances were calculated for IFBB and two reference conversion processes, whole-crop digestion of untreated silage (WCD) and combustion of hay (CH). In the second experiment, biomass from one single semi-natural grassland sward (Arrhenaterion) was harvested at eight consecutive dates (27/04, 02/05, 09/05, 16/05, 24/05, 31/05, 11/06, 21/06) and ensiled. Each silage was subjected to six different treatments (no hydrothermal conditioning and hydrothermal conditioning at 10°C, 30°C, 50°C, 70°C, 90°C). Energy balance was calculated for IFBB and WCD. Multiple regression models were developed to predict mass flows, concentrations of elements in the PC, concentration of organic compounds in the PF and energy conversion efficiency of the IFBB process from temperature of hydrothermal conditioning as well as NDF and DM concentration in the silage. Results showed a relative reduction of ash and all elements detrimental for combustion in the PC compared to the untreated biomass of 20-90%. Reduction was highest for K and Cl and lowest for N. HHV of PC and untreated biomass were in a comparable range (17.8-19.5 MJ kg-1 DM), but AST of PC was higher (1156-1254°C). Methane yields of PF were higher compared to those of WCD when the biomass was harvested late (end of May and later) and in a comparable range when the biomass was harvested early and ranged from 332 to 458 LN kg-1 VS. Regarding energy and GHG balances, IFBB, with a net energy yield of 11.9-14.1 MWh ha-1, a conversion efficiency of 0.43-0.51, and GHG mitigation of 3.6-4.4 t CO2eq ha-1, performed better than WCD, but worse than CH. WCD produces thermal and electric energy with low efficiency, CH produces only thermal energy with a low quality solid fuel with high efficiency, IFBB produces thermal and electric energy with a solid fuel of high quality with medium efficiency. Regression models were able to predict target parameters with high accuracy (R2=0.70-0.99). The influence of increasing temperature of hydrothermal conditioning was an increase of mass flows, a decrease of element concentrations in the PC and a differing effect on energy conversion efficiency. The influence of increasing NDF concentration of the silage was a differing effect on mass flows, a decrease of element concentrations in the PC and an increase of energy conversion efficiency. The influence of increasing DM concentration of the silage was a decrease of mass flows, an increase of element concentrations in the PC and an increase of energy conversion efficiency. Based on the models an optimised IFBB process would be obtained with a medium temperature of hydrothermal conditioning (50°C), high NDF concentrations in the silage and medium DM concentrations of the silage.
Resumo:
Ziel der vorliegenden Arbeit war es, einen Beitrag zur Resistenzforschung bei Tomaten gegenüber P. infestans zu leisten, um erste Grundlagen für eine mögliche Züchtungsstrategie auf Basis unterschiedlicher quantitativer Resistenzen zu erarbeiten. Hierzu wurde untersucht, inwieweit unterschiedliche qualitative und quantitative Resistenzen bei Tomatenblättern und -früchten vorliegen, und ob hierfür verantwortliche Mechanismen identifiziert werden können. Zudem wurde untersucht, ob isolatspezifische quantitative Resistenzen identifiziert werden können. Zu diesem Zweck wurde mit einer erweiterten Clusteranalyse, basierend auf einer modifizierten Sanghvi-T2 Distanz, ein statistisches Verfahren entwickelt, welches die Identifikation von quantitativen, isolatspezifischen Resistenzen unter der Berücksichtigung der Variabilität ermöglicht. Des weiteren wurde geprüft, inwieweit zwischen den Resistenzausprägungen auf dem Blatt und den Resistenzausprägungen auf der Frucht ein Zusammenhang besteht und inwieweit die im Labor beobachteten Resistenzen unter Freilandbedingungen eine Rolle spielen. Im Labortest wurde die qualitative und quantitative Blattresistenz von 109 Akzessionen aus elf Lycopersicon und Solanum Arten gegenüber zwölf unterschiedlich aggressiven und teilweise auch unterschiedlich virulenten P. infestans Isolaten untersucht (Kap. 3). Die Früchte von 38 Tomatensorten wurden auf ihre Resistenz gegenüber drei P. infestans Isolaten geprüft. Zusätzlich wurde der Einfluss der Fruchtnachreife auf die Resistenzeigenschaften der Tomatenfrüchte gegenüber P. infestans analysiert (Kap. 4). Insgesamt 40 Sorten wurden auch unter Feldbedingungen auf Blatt- und Fruchtbefall untersucht (Kap. 5). Die frühen Stadien der Infektion von Tomatenblättern mit P. infestans Sporangien wurden mikroskopisch bei acht Tomatensorten mit unterschiedlichen quantitativen Reaktionsprofilen und drei Isolaten untersucht (Kap. 6). Hierzu wurden die Entwicklungsstadien von P. infestans Sporangien nach 24h, 48h und 60h nach der Inokulation auf und im Blatt mit der Calcofluor und der KOH - Anilin Blau Färbung sichtbar gemacht. Das Auftreten und die Lokalisation von H2O2 im Blatt nach 48h und 60h nach der Inokulation in Reaktion auf die Infektion wurde mithilfe einer DAB (3,3′ - Diaminobenzidine) Färbung untersucht. Es wurden einige, z.T. auch wahrscheinlich neue, qualitative Blattresistenzen gegenüber P. infestans gefunden, jedoch war keine der 109 Akzessionen vollständig resistent gegenüber allen Isolaten. Für die quantitative Resistenz von Blättern lagen in vielen Fällen isolatspezifische Unterschiede vor. Die Sorte x Isolat Interaktionen konnten mit Hilfe der erweiterten Clusteranalyse erfolgreich analysiert werden und die Akzessionen in Gruppen mit unterschiedlichen quantitativen Resistenzprofilen bzgl. der Interaktion mit den Isolaten und des Resistenzniveaus eingeteilt werden. Für die Fruchtresistenz konnten keine qualitativen Resistenzen gegenüber den drei getesteten Isolaten gefunden werden. Im Gegensatz dazu unterschieden sich die Tomatensorten in ihrer quantitativen Resistenz und Sorten und Isolate interagierten signifikant. Auch für die Fruchtresistenz konnten Gruppen mit unterschiedlichen quantitativen Reaktionsprofilen gebildet werden. Insgesamt nimmt die Anfälligkeit von Tomatenfrüchten mit zunehmender Reife kontinuierlich und signifikant ab. Unter Laborbedingungen korrelierten nur die Sporulationskapazität der Früchte und der prozentuale Blattbefall. Im Feldversuch über zwei Jahre und mit bis zu 40 Tomatensorten war der Zusammenhang hoch signifikant, jedoch asymptotisch, d.h. bereits bei sehr geringem Blattbefall war der Fruchtbefall sehr hoch. Bei den Tomatenherkünften, die sowohl im Labor als auch im Feld auf ihre Anfälligkeit getestet wurden, erschienen die Blattanfälligkeiten ähnlich, während kein klarer Zusammenhang zwischen der Fruchtanfälligkeit im Feld und im Labor bestand. Die Entwicklung von P. infestans auf der Blattoberfläche war unabhängig von der Sorte. Sowohl beim Eindringen und der Etablierung von P. infestans ins Blatt als auch bei der damit verbunden H2O2 Aktivität im Wirt wurden deutliche isolat- und sortenspezifische Effekte gefunden, die aber nur zum Teil mit den quantitativen Unterschieden der Blattresistenz korrespondierten. Sorten, die bei hoher Resistenz unterschiedliche Reaktionsprofile aufweisen, sind grundsätzlich interessante Kreuzungspartner, um die quantitative Resistenz gegenüber P. infestans zu verbessern. Hier sind vor allem Sorten, die sich auch in ihrer H2O2 Aktivität unterscheiden von Interesse.
Resumo:
Ziel dieser wissenschaftlichen Hausarbeit ist es, Geschlechterrollen bürgerlicher Kinder zu untersuchen, die auf Atelierfotografien abgebildet sind. Dazu soll das phänomenologisch-hermeneutische Verfahren der „seriell-ikonografische[n] Fotoanalyse“ von Pilarczyk und Mietzner in einer empirischen Untersuchung genutzt werden. Erforscht wird damit, inwieweit sich die Darstellungen von Mädchen und Jungen unterscheiden. In meiner Untersuchung gehe ich folgendermaßen vor: Im zweiten Kapitel wird zunächst die Bedeutung der Fotografie für die Erziehungswissenschaft reflektiert. Dabei steht die Frage im Vordergrund: Welche Vorteile und Eigenarten hat die Fotografie im Bezug zu anderen Quellen? Besonders ihr Verhältnis zur Wirklichkeit und die Rolle des Zufalls machen es schwierig, sie als Primärquelle zu verwenden. Deshalb werden anschließend beide Faktoren untersucht. Darauf folgen (im dritten Kapitel) die Beschreibung des Modells der seriell-ikonografischen Analyse von Pilarczyk und Mietzner sowie Rezensionen zu diesem Ansatz und eine genaue Erläuterung, wie die Methode für diese Arbeit genutzt werden soll. Bevor das Verfahren jedoch zur Anwendung kommt, werden zunächst bürgerlicher Kontext und Struktur der bürgerlichen Familie - innerhalb deren sich die Kinder auf den Fotografien bewegen - dargestellt. Anschließend wird der Kontext der Atelierfotografie vorgestellt, um eine zeitgemäße Lesart der Kinderfotografien zu gewährleisten. Im sechsten Kapitel folgt die Analyse des von mir zusammengestellten Bildfundus. Die daraus gewonnen Hypothesen werden in einem Fazit zusammengefasst. Es schließt sich eine Überprüfung und Erweiterung der Hypothesen anhand von schriftlichen Quellen in Kapitel 7 an. Zusammenfassung der Ergebnisse sowie Ausblick sind im Schlusskapitel zu lesen.
Resumo:
Mauerwerksbauten mit geringen Schubwandquerschnitten sind auf Grund der erhöhten Einwirkungen nach DIN 4149:2005-04 in Gebieten geringer Seismizität nicht mehr nachzuweisen. Durch Großversuche, die innerhalb eines europäischen Forschungsvorhabens durchgeführt wurden, konnte jedoch die Tragfähigkeit solcher Gebäude unter Beweis gestellt werden. Auf Grundlage von 54 an der Universität Kassel durchgeführten Wandversuchen an geschosshohen Mauerwerksscheiben wird der Einfluss von Randbedingungen des Gesamtgebäudes aufgezeigt, die Tragfähigkeit und deren Interaktion innerhalb der Tragstruktur untersucht. Hierzu wird eine Methode angegeben, die es auf Kenntnis der Wandgeometrie, der vertikalen Ausnutzung und der verwendeten Mauerwerksart erlaubt, die Versagensart der Wandscheibe zu ermitteln. Auf Basis dieser Methode wird ein empirischer Ansatz zur Bestimmung der Tragfähigkeit hergeleitet. Die Randbedingung der Wandscheiben und deren Einfluss auf die Horizontaltragfähigkeit werden aufgezeigt und analytisch wie versuchtechnisch ausgewertet. Den offensichtlich größten Einfluss der Randbedingungen auf die Tragfähigkeit hat die Einspannung des Wandkopfes in die Decke. In der vorliegenden Arbeit wird der Einfluss des Einspanngrades über einen Einspannwirksamkeitsbeiwert 0 bestimmt und dieser den geometrischen Größen, welche den Einspanngrad beeinflussen, gegenüber gestellt. Hiermit kann gezeigt werden, dass die Annahme einer vollen Einspannung für den rechnerischen Nachweis der Horizontaltragfähigkeit in einem definierten Bereich mit maximal 20 % auf der unsicheren Seite liegt, was unter Berücksichtigung der Streuungen des verwendeten Baustoffes eine sehr geringe Abweichung darstellt. Weiterhin wird die Randbedingung „Wachsen“ einer Wandscheibe beschrieben und deren Auswirkungen auf die Umlagerung der Vertikalkräfte zwischen den einzelnen Wänden eines Gebäudes dargestellt. Hierzu werden die Wände, welche auf Kippen versagen, innerhalb eines dreidimensionalen FE-Modells als Doppel-T-Stabwerke modelliert und die anderen Querwände lediglich als Auflager, die auf Zug ausfallen. So können die Vertikalkräfte der Schubwände in Abhängigkeit von der Belastungsrichtung und dem Verformungsgrad bestimmt werden. Mit Hilfe dieser Verfahren kann unter Berücksichtigung der Einspannung am Wandkopf und des „Wachsens“ der Wandscheibe der oben beschriebene Großversuch rechnerisch auf Grundlage eines empirischen Ansatzes mit guter Näherung nachvollzogen werden.
Resumo:
Diese Arbeit behandelt die Problemstellung der modellbasierten Fehlerdiagnose für Lipschitz-stetige nichtlineare Systeme mit Unsicherheiten. Es wird eine neue adaptive Fehlerdiagnosemethode vorgestellt. Erkenntnisse und Verfahren aus dem Bereich der Takagi-Sugeno (TS) Fuzzy-Modellbildung und des Beobachterentwurfs sowie der Sliding-Mode (SM) Theorie werden genutzt, um einen neuartigen robusten und nichtlinearen TS-SM-Beobachter zu entwickeln. Durch diese Zusammenführung lassen sich die jeweiligen Vorteile beider Ansätze miteinander kombinieren. Bedingungen zur Konvergenz des Beobachters werden als lineare Matrizenungleichungen (LMIs) abgeleitet. Diese Bedingungen garantieren zum einen die Stabilität und liefern zum anderen ein direktes Entwurfsverfahren für den Beobachter. Der Beobachterentwurf wird für die Fälle messbarer und nicht messbarer Prämissenvariablen angegeben. Durch die TS-Erweiterung des in dieser Arbeit verwendeten SM-Beobachters ist es möglich, den diskontinuierlichen Rückführterm mithilfe einer geeigneten kontinuierlichen Funktion zu approximieren und dieses Signal daraufhin zur Fehlerdiagnose auszuwerten. Dies liefert eine Methodik zur Aktor- und Sensorfehlerdiagnose nichtlinearer unsicherer Systeme. Gegenüber anderen Ansätzen erlaubt das Vorgehen eine quantitative Bestimmung und teilweise sogar exakte Rekonstruktion des Fehlersignalverlaufs. Darüber hinaus ermöglicht der Ansatz die Berechnung konstanter Fehlerschwellen direkt aus dem physikalischen Vorwissen über das betrachtete System. Durch eine Erweiterung um eine Betriebsphasenerkennung wird es möglich, die Schwellenwerte des Fehlerdiagnoseansatzes online an die aktuelle Betriebsphase anzupassen. Hierdurch ergibt sich in Betriebsphasen mit geringen Modellunsicherheiten eine deutlich erhöhte Fehlersensitivität. Zudem werden in Betriebsphasen mit großen Modellunsicherheiten Falschalarme vermieden. Die Kernidee besteht darin, die aktuelle Betriebsphase mittels eines Bayes-Klassikators in Echtzeit zu ermitteln und darüber die Fehlerschwellen an die a-priori de nierten Unsicherheiten der unterschiedlichen Betriebsphasen anzupassen. Die E ffektivität und Übertragbarkeit der vorgeschlagenen Ansätze werden einerseits am akademischen Beispiel des Pendelwagens und anderseits am Beispiel der Sensorfehlerdiagnose hydrostatisch angetriebener Radlader als praxisnahe Anwendung demonstriert.