133 resultados para generative Verfahren


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Evolutionäre Algorithmen werden gerne für Optimierungsaufgaben mit sehr vielen Freiheitsgraden eingesetzt. Eine spezielle Konvergenzeigenschaft, daß nämlich der Rechenaufwand nur mit der Wurzel der Anzahl der Unbekannten steigt, prädestiniert sie dafür. Die evolutionären Algorithmen haben aber auch noch eine weitere interessante Eigenschaft: Von der Zielfunktion wird nur verlangt, daß sie monoton ist - nichts weiter. Speziell wird, im Gegensatz zu gradientenbasierten Verfahren, keinerlei Ableitung von der Zielfunktion benötigt. Dadurch können evolutionäre Algorithmen auch in solchen Fällen eingesetzt werden, in denen Ableitungen der Zielfunktion nicht oder nur schwierig zu beschaffen sind. Die evolutionären Algorithmen kommen deshalb mit so geringen Anforderungen an die Zielfunktion aus, weil nur absolute Bewertungen einzelner Punkte (hier Vektoren) im Lösungsraum durch die Zielfunktion vorgenommen werden. Dafür werden eine gewisse Anzahl Punkte gleichzeitig betrachtet. Im direkten Vergleich untereinander relativ günstig liegende Punkte werden für die weitere Rechnung übernommen, die anderen verworfen. Aus den Komponenten der übernommenen Punkte werden nun zufällig neue Punkte zusammengesetzt und ein wenig verschoben. Dann schließt sich der Kreis, indem diese neuen Punkte ebenfalls bewertet werden. Im Verlauf einer solchen Iteration konvergiert die Punktmenge in der Regel gegen ein Optimum. Oft kommt es gerade zu Beginn der Iteration zu schnellen Fortschritten. In dieser Arbeit wird ein Verfahren vorgestellt, bei dem mit Hilfe von evolutionären Algorithmen verbessernde Eingriffe in laufenden Echtzeitsystemen vorgenommen werden. Was gut oder schlecht ist, wird zu diesem Zweck über die Zielfunktion für die Optimierung definiert. Da von der Zielfunktion letztlich das Verhalten des Gesamtsystems abhängt, sollte sie sorgfältig ausgewählt werden. Die Eingriffe in das System sind zeitlich begrenzte Steuertrajektorien. Sie werden zusätzlich zur permanent wirkenden Regelung auf das System aufgebracht. Um die Anzahl der zu optimierenden Variablen in Grenzen zu halten, werden die Steuertrajektorien durch wenige Parameter repräsentiert. Da die Steuertrajektorien im voraus berechnet werden müssen, wird das Systemverhalten mittels eines Modells für eine gewisse, in der Zukunft liegende, Zeitspanne vorhergesagt. Wird die geforderte Qualität während dieser Zeitspanne unterschritten, kann so schon im Vorfeld ein Optimierungslauf des evolutionären Algorithmus durchgeführt werden. Allerdings ist die zur Verfügung stehende Rechenzeit von vornherein begrenzt. Daher ist es wesentlich, daß die mit evolutionären Algorithmen häufig assoziierte lange Rechenzeit nicht benötigt wird. Tatsächlich läßt sich unter Umständen mit wenig Rechenzeit auskommen. Erstens wird nur mit wenigen Variablen gerechnet, zweitens kommt es bei dem beschriebenen Verfahren - halbwegs gutmütige Systeme vorausgesetzt - gar nicht auf die letzte Nachkommastelle, sondern (ähnlich wie bei Sliding-Mode-Regelungen) mehr auf eine Tendenz an. Da evolutionäre Algorithmen aber gerade zu Beginn einer Iteration die größten Fortschritte in Richtung des Optimums machen, kann schon nach vergleichsweise wenigen Schritten eine deutliche Verbesserung der Gesamtsituation erreicht werden. Gerade um eine schnelle Konvergenz zu erreichen, sind die spezielle Ausprägung und die Parameter des evolutionären Algorithmus mit Bedacht zu wählen. Dafür werden im Rahmen der Arbeit einige Experimente durchgeführt. Anhand der Ergebnisse der Experimente können konkrete Empfehlungen für eine günstige Konfiguration des evolutionären Algorithmus gegeben werden. Um es vorwegzunehmen: Zuviel Aufwand beim evolutionären Algorithmus zu treiben, lohnt sich nicht. Schon mit einfachen Konfigurationen können gute Ergebnisse erzielt werden. Die einzige Maßnahme, die sich bei den Experimenten tatsächlich als vorteilhaft herausstellte, war die Aufteilung der Gesamtpopulation (betrachtete Punktmenge im Lösungsraum) in mehrere Subpopulationen. Schließlich wird noch ein Computerprogramm beschrieben, das die Arbeitsweise des vorgestellten Verfahrens am Bildschirm erlebbar macht. Die einzelnen Komponenten werden vom Programm während der Ausführung mit einigen wesentlichen Rechengrößen visualisiert. Der Betrachter erhält so einen besseren Eindruck vom Zusammenwirken der einzelnen Verfahrens-Teile.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract. Auf Grund der steigenden Nachfrage nach Transportleistungen im Luftverkehr ist es dringend notwendig, die Kapazität der Flughäfen zu erhöhen. Neben der Anzahl der pro Zeiteinheit möglichen Starts und Landungen spielt dabei der Durchsatz auf dem Vorfeld eine entscheidende Rolle. Bewegungen von Boden- und Luftfahrzeugen, die Flüsse von Passagieren, Gepäck und Transportgütern und das Zusammenspiel der Dienstleister auf dem Vorfeld werden von der Verkehrszentrale überwacht und koordiniert. Aufgabenanalysen haben gezeigt, dass die Verkehrszentrale einen wichtigen Knotenpunkt der Informationsflüsse auf dem Flughafen darstellt. Zur Unterstützung der Arbeit der Verkehrszentrale wurde deshalb ein Kommunikationswerkzeug entwickelt, das die unterschiedlichen Medien und Verfahren der Kommunikation vereinheitlicht.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Automobilindustrie reagiert mit Modularisierungsstrategien auf die zunehmende Produktkomplexität, getrieben durch die wachsenden Individualisierungsanforde-rungen auf der Kundenseite und der Modellpolitik mit neuen Fahrzeuganläufen. Die Hersteller verlagern die Materialbereitstellungskomplexität durch Outsourcing an die nächste Zulieferebene, den First Tier Suppliern, die seit Beginn der 90er Jahre zunehmend in Zulieferparks in unmittelbarer Werknähe integriert werden. Typische Merkmale eines klassischen Zulieferparks sind: Bereitstellung einer Halleninfrastruktur mit Infrastrukturdienstleistungen, Anlieferung der Teileumfänge im JIS-Verfahren (Just-in-Sequence = reihenfolgegenaue Synchronisation), lokale Wertschöpfung (Vormontagen, Sequenzierung) des Zulieferers, Vertragsbindung der First Tier Zulieferer für die Dauer eines Produktlebenszyklus und Einbindung eines Logistikdienstleisters. Teilweise werden zur Finanzierung Förderprojekte des öffent-lichen Sektors initiiert. Bisher fehlte eine wissenschaftliche Bearbeitung dieses Themas "Zulieferpark". In der Arbeit werden die in Europa entstandenen Zulieferparks näher untersucht, um Vor- und Nachteile dieses Logistikkonzeptes zu dokumentieren und Entwicklungs-trends aufzuzeigen. Abgeleitet aus diesen Erkenntnissen werden Optimierungs-ansätze aufgezeigt und konkrete Entwicklungspfade zur Verbesserung der Chancen-Risikoposition der Hauptakteure Automobilhersteller, Zulieferer und Logistikdienst-leister beschrieben. Die Arbeit gliedert sich in vier Haupteile, einer differenzierten Beschreibung der Ausgangssituation und den Entwicklungstrends in der Automobilindustrie, dem Vorgehensmodell, der Dokumentation der Analyseergebnisse und der Bewertung von Zulieferparkmodellen. Im Rahmen der Ergebnisdokumentation des Analyseteils werden vier Zulieferparkmodelle in detaillierten Fallstudien anschaulich dargestellt. Zur Erarbeitung der Analyseergebnisse wurde eine Befragung der Hauptakteure mittels strukturierten Fragebögen durchgeführt. Zur Erhebung von Branchentrends und zur relativen Bewertung der Parkmodelle wurden zusätzlich Experten befragt. Zur Segmentierung der Zulieferparklandschaft wurde die Methode der Netzwerk-analyse eingesetzt. Die relative Bewertung der Nutzenposition basiert auf der Nutzwertanalyse. Als Ergebnisse der Arbeit liegen vor: · Umfassende Analyse der Zulieferparklandschaft in Europa, · Segmentierung der Parks in Zulieferparkmodelle, Optimierungsansätze zur Verbesserung einer Win-Win-Situation der beteiligten Hauptakteure, · Relative Nutzenbewertung der Zulieferparkmodelle, · Entwicklungspfade für klassische Zulieferparks.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Der Einsatz der Particle Image Velocimetry (PIV) zur Analyse selbsterregter Strömungsphänomene und das dafür notwendige Auswerteverfahren werden in dieser Arbeit beschrieben. Zur Untersuchung von solchen Mechanismen, die in Turbo-Verdichtern als Rotierende Instabilitäten in Erscheinung treten, wird auf Datensätze zurückgegriffen, die anhand experimenteller Untersuchungen an einem ringförmigen Verdichter-Leitrad gewonnen wurden. Die Rotierenden Instabilitäten sind zeitabhängige Strömungsphänomene, die bei hohen aerodynamischen Belastungen in Verdichtergittern auftreten können. Aufgrund der fehlenden Phaseninformation kann diese instationäre Strömung mit konventionellen PIV-Systemen nicht erfasst werden. Die Kármánsche Wirbelstraße und Rotierende Instabilitäten stellen beide selbsterregte Strömungsvorgänge dar. Die Ähnlichkeit wird genutzt um die Funktionalität des Verfahrens anhand der Kármánschen Wirbelstraße nachzuweisen. Der mittels PIV zu visualisierende Wirbeltransport erfordert ein besonderes Verfahren, da ein externes Signal zur Festlegung des Phasenwinkels dieser selbsterregten Strömung nicht zur Verfügung steht. Die Methodik basiert auf der Kopplung der PIV-Technik mit der Hitzdrahtanemometrie. Die gleichzeitige Messung mittels einer zeitlich hochaufgelösten Hitzdraht-Messung ermöglicht den Zeitpunkten der PIV-Bilder einen Phasenwinkel zuzuordnen. Hierzu wird das Hitzdrahtsignal mit einem FFT-Verfahren analysiert, um die PIV-Bilder entsprechend ihrer Phasenwinkel zu gruppieren. Dafür werden die aufgenommenen Bilder auf der Zeitachse der Hitzdrahtmessungen markiert. Eine systematische Analyse des Hitzdrahtsignals in der Umgebung der PIV-Messung liefert Daten zur Festlegung der Grundfrequenz und erlaubt es, der markierten PIV-Position einen Phasenwinkel zuzuordnen. Die sich aus den PIV-Bildern einer Klasse ergebenden Geschwindigkeitskomponenten werden anschließend gemittelt. Aus den resultierenden Bildern jeder Klasse ergibt sich das zweidimensionale zeitabhängige Geschwindigkeitsfeld, in dem die Wirbelwanderung der Kármánschen Wirbelstraße ersichtlich wird. In hierauf aufbauenden Untersuchungen werden Zeitsignale aus Messungen in einem Verdichterringgitter analysiert. Dabei zeigt sich, dass zusätzlich Filterfunktionen erforderlich sind. Im Ergebnis wird schließlich deutlich, dass die Übertragung der anhand der Kármánschen Wirbelstraße entwickelten Methode nur teilweise gelingt und weitere Forschungsarbeiten erforderlich sind.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Mit der vorliegenden Arbeit wird eine Synthese aus molekularer Phylogenie und Merkmalsentwicklung für die Unterfamilie Suaedoideae der Chenopodiaceae präsentiert. Anhand von rekonstruierten Stammbäumen aus den Sequenzunterschieden von DNA-Abschnitten zweier unabhängiger Genome (Kern, Chloroplast) werden monophyletische Gruppen herausgearbeitet und die Variabilität der molekularen Merkmale in Bezug auf die bekannten Arten diskutiert. Insgesamt wurden für alle molekularen Analysen 294 Sequenzen ausgewertet. Mit 254 Sequenzen von Arten der Unterfamilie Suaedoideae und 18 Sequenzen von Arten der Unterfamilie Salicornioideae wurde eine vergleichende molekulare Analyse mit den DNA-Regionen ITS, atpB-rbcL und psbB-psbH durchgeführt. Mit der Einbeziehung von ca. 65 bekannten Suaeda-Arten sind damit je nach Artauffassung bis zu 80% aller Arten der Gattung berücksichtigt. Mittels Fossildaten werden die wichtigsten Divergenzereignisse zeitlich fixiert. Die molekularen Stammbäume dienen weiterhin als Grundlage für die Bewertung der Arten sowie ihrer morphologischen und anatomischen Merkmale. Ein wichtiger Aspekt bildet dabei die Entwicklung der C4-Photosynthese mit den zugehörigen Blatttypen. Die folgenden vier Themenkomplexe bzw. Fragestellungen sollten bearbeitet werden (für ausführliche Darstellung vgl. Kap. 1.3): 1. Monophyletische Gruppen und ihre Beziehungen 2. Prinzipien der Evolution und Artbildung in der untersuchten Gruppe, Abgrenzung der Arten. 3. Entwicklung des C4-Photosynthesesyndroms 4. Entwicklung und Variabilität systematisch relevanter Merkmale Die Ergebnisse der auf vergleichender DNA-Sequenzierung beruhenden molekularen Analyse und die Synthese mit weiteren Daten führen als Resultat der vorliegenden Arbeit zusammenfassend zu folgenden Ergebnissen: 1.) Die drei sequenzierten DNA-Regionen ITS, atpB-rbcL und psbB-psbH zeigen im Vergleich eine sehr unterschiedliche Variabilität, ITS ist die variabelste aller Regionen. Die in den Alignments gefundenen Merkmale in Form von Punkt- und Längenmutationen zwischen den Einzelsequenzen waren zahlenmäßig ausreichend und qualitativ geeignet, um mit den drei Verfahren Maximum Parsimony, Maximum Likelihood und Bayes’scher Analyse aussagekräftige und in wesentlichen Aussagen kongruente molekulare Phylogenien zu rekonstruieren. Die Chloroplasten-Daten wurden für die Berechnungen kombiniert. 2.) Die beiden DNA-Regionen ITS und atpB-rbcL evolvieren mit sehr unterschiedlichen Geschwindigkeiten. Die mit der Glättungsmethode PL berechneten durchschnittlichen Substitutionsraten weisen für ITS eine 5,5fach höhere Substitutionsrate gegenüber atpB-rbcL nach. Die ITS-Sequenzen sind daher wesentlich diverser und für einige Sippen, bei identischen atpB-rbcL-Sequenzen, unterschiedlich. Eine direkte Homologisierung von molekularer und morphologischer Variabilität oder die molekulare Limitierung von Arten ist daher nur in einigen Fällen möglich. 3.) Die Gattungen Suaeda, Alexandra und Borszczowia bilden eine monophyletische Gruppe, die den Salicornioideae als Schwestergruppe gegenübersteht. Dies bestätigt die Ergebnisse der Phylogenie der Chenopodiaceae (Kadereit et al. 2003). Im traditionellen Verständnis ist damit die Gattung Suaeda paraphyletisch. Durch taxonomische Umkombination (Schütze et al. 2003. Kapralov et al. 2006) werden die Gattungen Alexandra und Borszczowia in Suaeda eingegliedert, womit das Monophylie-Kriterium für die Gattung wieder erfüllt ist. Die molekularen Daten unterstützen diese nomenklatorische Neubewertung. Der nachfolgend verwendete Gattungsname Suaeda bezieht sich auf die neue Fassung. 4.) Bienertia gehört nicht in die unter 2.) beschriebene monophyletische Gruppe. Die Stellung dieser Gattung ist intermediär. Im ITS-Baum bildet sie die Schwestergruppe zu den Salicornioideae, im Chloroplasten-Baum diejenige zu Suaeda. Da Bienertia aufgrund morphologischer Merkmale Suaeda ähnlicher ist als den Salicornioideae wird sie in die intern neu gegliederte Unterfamilie der Suaedoideae einbezogen, die weitgehend der in Ulbrich (1934) vertretenen Auffassung entspricht. 5.) Suaeda teilt sich in zwei sehr deutlich getrennte Gruppen, die in einer neuen Gliederung als Untergattungen Brezia und Suaeda definiert werden. Die Trennung datiert mit etwa 30 Mio. Jahren in das Oligozän. Zur Untergattung Brezia gehören alle Arten der Sektion Brezia nach bisheriger taxonomischer Auffassung, die Untergattung Suaeda vereint alle übrigen Arten und wird in weitere Sektionen untergliedert. 6.) Die Untergattung bzw. Sektion Brezia zeigt im ITS-Baum eine deutliche Dreigliederung in 3 Subclades, die allerdings von den Chloroplasten-Bäumen nicht verifiziert wird und auch durch morphologische Merkmale nicht zu rechtfertigen ist. Die Subclades der Untergattung Suaeda entsprechen in Grundzügen den bisherigen Sektionen und sind durch synapomorphe Merkmale gekennzeichnet. Für die Gattung Suaeda leiten sich nach monophyletischen Gruppen oder singulären Linien folgende Sektionen ab: Brezia, Alexandra, Borszczowia, Schanginia, Schoberia Salsina (inkl. der früheren Sektionen Limbogermen, Immersa und Macrosuaeda), Suaeda, Physophora und Glauca (neu). 7.) Hybridisierung und Polyploidisierung sind wichtige Prozesse der sympatrischen Artbildung innerhalb der Suaedoideae und waren wahrscheinlich immer mit Arealerweiterungen gekoppelt. Mehrere Linien sind durch Vervielfachung des Chromosomensatzes charakterisiert, wobei auch die recht seltene Form der Dekaploidie erreicht wird. Vieles spricht dafür, dass sowohl Auto- als auch Allopolyploidie eine Rolle spielt. Auf Autopolyplodie beruhen höchstwahrscheinlich die unterschiedlichen Chromosomenrassen von S. corniculata. Durch Inkongruenzen zwischen Chloroplasten- und ITS (Kern)-Stammbäumen konnten einige Arten mit hoher Wahrscheinlichkeit als etablierte, allopolyploide Hybridsippen identifiziert werden (Suaeda kulundensis, S. sibirica). Es ist damit erwiesen, dass die Diversifizierung durch retikulate Evolution beeinflusst wird. 8.) Die Ergebnisse der molekularen Phylogenien belegen sehr deutlich, dass sich die C4-Photosynthese innerhalb der Suaedoideae viermal unabhängig mit vier vollkommen unterschiedlichen Blatttypen entwickelt hat. Dazu gehören zwei Blatttypen mit single cell C4-photosynthesis, ein bis vor kurzem bei Landpflanzen unbekanntes Phänomen. Innerhalb der Sektionen Schoberia, Salsina und Borszczowia datiert die Entstehung in das späte Miozän, bei Bienertia entstand die C4-Photosynthese möglicherweise noch früher. 9.) Als systematisch äußerst bedeutsame Merkmale haben sich die schon von Iljin (1936a) benutzten Pistill-Formen sowie spezifische Blattmerkmale herausgestellt. Mit diesen Merkmalen können Sektionen, die auf monophyletischen Gruppen beruhen, gut definiert werden. Synapomorphe Merkmale des Pistills sind die Zahl und Ausbildung der Narben sowie die Form ihrer Insertion im Ovar. Bei den Blatttypen sind es vor allem die vier histologisch hoch differenzierten C4-Blatttypen, die als gemeinsam abgeleitetes Merkmal rezenter, teilweise aufgespaltener Linien gewertet werden. 10.) Die früher z.T. überbewerteten Merkmale des Perianths (Verwachsungen, Flügel, Anhänge und Umbildungen) können nur zur Beschreibung einzelner Sippen oder lokaler Gruppen herangezogen werden. Ebenso ist das Merkmal der Lebensformen (Therophyten, Chamaephyten) kaum zur Charakterisierung von Gruppen geeignet. Wie das Beispiel Brezia sehr deutlich zeigt, kam es allein in dieser Gruppe mehrfach zur Entwicklung ausdauernder, verholzender Sippen. Der umgekehrte Prozess fand bei der Entstehung der annuellen S. aegyptiaca und S. arcuata statt. Mit Hilfe von DNA-basierten Stammbäumen ist es in der vorliegenden Arbeit möglich geworden, die evolutionäre Geschichte der Gattung nachzuzeichnen und eine auf monophyletischen Gruppen basierende Gliederung abzuleiten. Damit wird eine Grundlage für ein verbessertes Artkonzept der Gattung Suaeda geschaffen. Für die praktische Taxonomie ist dies aber nur teilweise bedeutend. Die morphologisch nachvollziehbare Abgrenzung von Arten bleibt, gerade in den diversen Sektionen Brezia und Salsina, umstritten und kaum nachvollziehbar. Ein Großteil der Arten hat offenbar keine interspezifischen Kompatibilitätsschranken, es handelt sich daher um Morpho- oder Semispecies, möglicherweise sogar nur geographische Rassen, die allerdings mit schnell evolvierenden DNA-Regionen wie ITS differenzierbar sind. Ausgehend von den Ergebnissen der vorliegenden Arbeit verbleibt genügend Raum für weiterführende, vertiefende systematische und populationsbiologische Studien.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Mikrobiota im Gastrointestinaltrakt (GIT) spielt eine bedeutende Rolle beim Fermentationsprozess im Bezug auf die Nährstoffversorgung sowie die Gesundheit des Darms und des gesamten Organismus. Inulin und resistente Stärke (RS) konnten als präbiotisch wirksame Substanzen identifiziert werden und sind jeweils auch in den Knollen der Topinamburpflanze (Helianthus tuberosus) und in Kartoffeln (Solanum tuberosum) enthalten. Da sie ebenfalls energiereiche Futtermittel für Schweine sind, war es das Ziel der ersten beiden Studien, die Auswirkungen der Aufnahme von Topinamburknollen und Kartoffeln auf die intestinale Mikrobiota und Parameter des Immunsystems bei Endmastschweinen zu bestimmen. In der dritten Studie wurde die mikrobielle Biomasse quantitativ mit einem Verfahren zur Isolation von Bakterien in einer Flüssigkeit durch Hochgeschwindigkeits-Zentrifugation erfasst und der bakteriell gebundene Stickstoff (MP-N) mit dem bakteriellen und endogenem Kotstickstoff (BEDN) verglichen. Im ersten Versuch wurden 72 Endmastschweine in einem Freilandhaltungssystem in eine Kontroll- (CT), die mit Kraftfutter entsprechend des Bedarfs der Tiere für ein Leistungsniveau von 700 g täglichem Lebendmassezuwachs versorgt wurde, und eine Versuchsvariante (ET) aufgeteilt. In der Versuchsvariante erhielten die Tiere nur 70% der Kraftfuttermenge der Kontrollvariante, hatten aber Zugang zu einer abgeteilten Fläche, auf der Topinamburknollen angebaut waren. Die freie Aufnahme von Topinamburknollen wurde auf 1•24 kg Trockenmasse (TM)/Tag bestimmt, entsprechend einer Inulinaufnahme von durchschnittlich 800 g/Tag. Während sich die Wachstumsleistung in der Kontrollvariante auf 0•642 ± 0•014 kg/Tag belief, war sie in der Versuchsvariante mit 0•765 ± 0•015 kg/Tag (P=0•000) höher. Die freie Verfügbarkeit von Inulin und Fructo-oligosacchariden (FOS) im GIT der Schweine erhöhte die Keimzahlen der anaeroben Bakterien (P=0•000), Laktobazillen (P=0•046) und Hefen (P=0•000) signifikant und verringerte das Vorkommen von Clostridium perfringens im Schweinekot erheblich von lg 5•24 ± 0•17 kolonie-bildende Einheiten pro g Frischmasse (KbE/ g FM) in der Kontrollvariante auf lg 0•96 ± 0•20 KbE/ g FM in der Versuchsvariante (P=0•000). C-reaktives Protein (CRP) und Antikörper gegen Lipopolysaccharide (LPS) von Escherichia coli J5 ließen keine Unterschiede zwischen den Fütterungsvarianten erkennen. In der zweiten Untersuchung wurden 58 Endmastschweine einer Kontrollvariante (CT), die bedarfsgerecht mit einer Kraftfuttermischung für ein Leistungsniveau von 700 g Tageszunahmen gefüttert wurde, und zwei Versuchsvarianten zugeteilt. Die Versuchsvarianten erhielten eine Menge von 1•2 kg TM gedämpften Kartoffeln (potato treatment, PT) oder gedämpften und einsilierten Kartoffeln (silage treatment, ST) pro Tag und nur 46% bzw. 43% der Menge des Kraftfutters der Kontrollvariante. Die Wachstumsleistung und Schlachtkörperzusammensetzung ließen keine signifikanten Unterschiede zwischen den Varianten erkennen. Im PT und ST waren gegenüber dem CT im Kot der pH-Wert sowie die Gehalte von TM, Neutral-Detergenz-Faser (NDF), unverdautem Futterstickstoff (UDN) und teilweise von Säure-Detergenz-Faser (ADF) signifikant niedriger (P=0•000) und die von Ammonium (NH4) und Ammoniumstickstoff (NH4-N) signifikant höher (P=0•000). Das hohe Angebot von hitzebehandelten Kartoffeln führte zu einer erheblichen Verringerung von E. coli (P=0•000), C. perfringens (P=0•000) und Immunoglobulin A gegen LPS von E. coli J5 (P=0•001). Darüber hinaus waren in der ersten Versuchsperiode im ST die aeroben und anaeroben Gesamtkeimzahlen sowie die Laktobazillen und Hefen gegenüber dem PT signifikant erhöht. Die Unterschiede in der Mikrobiota zwischen der Kontroll- und Versuchsvarianten weisen auf die positiven Auswirkungen von Topinamburknollen und hitzebehandelten Kartoffeln auf die Mikrobiota im hinteren Darmabschnitt hin. Das Ziel der dritten Untersuchung war die Modifizierung des Verfahrens zur Isolation von Bakterien in einer Flüssigkeit mittels verschiedener Zentrifugationsschritte, um ein mikrobielles Pellet (MP) zu erhalten, welches die quantitative Abtrennung und Erfassung der Bakterien in Schweinekot ermöglicht. Zusätzlich wurde der BEDN Anteil sowie die Gehalte der Aminozucker Galactosamin, Glucosamin, Mannosamin und Muraminsäure im Kot und im MP bestimmt. Die untersuchten Kotproben stammten von Schweinen eines Phosphor (P) Stoffwechselversuch. Zehn männlich-kastrierte Schweine mit einem durchschnittlichen Lebendgewicht von 51•1 ± 8•5 kg wurden einzeln in Stoffwechselkäfigen gehalten. Die Tiere wurden fünf Fütterungsvarianten zugeteilt, die dem Bedarf der Tiere für ein Leistungsniveau von 700 g Tageszunahmen entsprachen, in den Rationen 2 bis 5 jedoch eine P-Gehalt unter dem Tagesbedarf der Tiere aufwiesen und in den Rationen 3 bis 5 mit abgestuften Gehalten von 50, 100 sowie 200 mg/kg einer experimentellen Phytase ergänz waren. Die Absenkung des P Gehaltes im Futter verringerte den Asche- (P=0•024) und Trockenmassegehalt im Kot (P=0•017) sowie die P Konzentration im MP (P=0•000) signifikant. Die mikrobielle Biomasse im Kot wurde durch die Wiegung des MP auf durchschnittlich 467 g/kg TM bestimmt. Der Stickstoffgehalt im Kot betrug im Mittel 46•1 g/kg TM und der in die Bakterienmasse eingebaute Stickstoffanteil 27•1 g/kg TM bzw. 58% vom Gesamtstickstoffgehalt im Kot. Die BEDN Fraktion wurde auf 73% am Kotstickstoff bestimmt. Der P-Gehalt im Kot sowie der N Gehalt im MP mit durchschnittlichen 10•4 und 57•9 g/kg TM lagen im Bereich von Literaturangaben. Die P Gehalte im MP schwankten in Abhängigkeit von der Zugabe von Phytase signifikant (P=0•000) von 1•8 bis 4•8 g/kg TM. Die Aminozucker wiesen keine signifikanten unterschiede zwischen Fütterungsvarianten auf und lagen im Bereich von Werten von Rinderkot. Ergebnisse weisen darauf hin, dass die angewandte Methode zur direkten Quantifizierung der mikrobiellen Biomasse geeignet ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In dieser Doktorarbeit wird eine akkurate Methode zur Bestimmung von Grundzustandseigenschaften stark korrelierter Elektronen im Rahmen von Gittermodellen entwickelt und angewandt. In der Dichtematrix-Funktional-Theorie (LDFT, vom englischen lattice density functional theory) ist die Ein-Teilchen-Dichtematrix γ die fundamentale Variable. Auf der Basis eines verallgemeinerten Hohenberg-Kohn-Theorems ergibt sich die Grundzustandsenergie Egs[γgs] = min° E[γ] durch die Minimierung des Energiefunktionals E[γ] bezüglich aller physikalischer bzw. repräsentativer γ. Das Energiefunktional kann in zwei Beiträge aufgeteilt werden: Das Funktional der kinetischen Energie T[γ], dessen lineare Abhängigkeit von γ genau bekannt ist, und das Funktional der Korrelationsenergie W[γ], dessen Abhängigkeit von γ nicht explizit bekannt ist. Das Auffinden präziser Näherungen für W[γ] stellt die tatsächliche Herausforderung dieser These dar. Einem Teil dieser Arbeit liegen vorausgegangene Studien zu Grunde, in denen eine Näherung des Funktionals W[γ] für das Hubbardmodell, basierend auf Skalierungshypothesen und exakten analytischen Ergebnissen für das Dimer, hergeleitet wird. Jedoch ist dieser Ansatz begrenzt auf spin-unabhängige und homogene Systeme. Um den Anwendungsbereich von LDFT zu erweitern, entwickeln wir drei verschiedene Ansätze zur Herleitung von W[γ], die das Studium von Systemen mit gebrochener Symmetrie ermöglichen. Zuerst wird das bisherige Skalierungsfunktional erweitert auf Systeme mit Ladungstransfer. Eine systematische Untersuchung der Abhängigkeit des Funktionals W[γ] von der Ladungsverteilung ergibt ähnliche Skalierungseigenschaften wie für den homogenen Fall. Daraufhin wird eine Erweiterung auf das Hubbardmodell auf bipartiten Gittern hergeleitet und an sowohl endlichen als auch unendlichen Systemen mit repulsiver und attraktiver Wechselwirkung angewandt. Die hohe Genauigkeit dieses Funktionals wird aufgezeigt. Es erweist sich jedoch als schwierig, diesen Ansatz auf komplexere Systeme zu übertragen, da bei der Berechnung von W[γ] das System als ganzes betrachtet wird. Um dieses Problem zu bewältigen, leiten wir eine weitere Näherung basierend auf lokalen Skalierungseigenschaften her. Dieses Funktional ist lokal bezüglich der Gitterplätze formuliert und ist daher anwendbar auf jede Art von geordneten oder ungeordneten Hamiltonoperatoren mit lokalen Wechselwirkungen. Als Anwendungen untersuchen wir den Metall-Isolator-Übergang sowohl im ionischen Hubbardmodell in einer und zwei Dimensionen als auch in eindimensionalen Hubbardketten mit nächsten und übernächsten Nachbarn. Schließlich entwickeln wir ein numerisches Verfahren zur Berechnung von W[γ], basierend auf exakten Diagonalisierungen eines effektiven Vielteilchen-Hamilton-Operators, welcher einen von einem effektiven Medium umgebenen Cluster beschreibt. Dieser effektive Hamiltonoperator hängt von der Dichtematrix γ ab und erlaubt die Herleitung von Näherungen an W[γ], dessen Qualität sich systematisch mit steigender Clustergröße verbessert. Die Formulierung ist spinabhängig und ermöglicht eine direkte Verallgemeinerung auf korrelierte Systeme mit mehreren Orbitalen, wie zum Beispiel auf den spd-Hamilton-Operator. Darüber hinaus berücksichtigt sie die Effekte kurzreichweitiger Ladungs- und Spinfluktuationen in dem Funktional. Für das Hubbardmodell wird die Genauigkeit der Methode durch Vergleich mit Bethe-Ansatz-Resultaten (1D) und Quanten-Monte-Carlo-Simulationen (2D) veranschaulicht. Zum Abschluss wird ein Ausblick auf relevante zukünftige Entwicklungen dieser Theorie gegeben.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The surge in the urban population evident in most developing countries is a worldwide phenomenon, and often the result of drought, conflicts, poverty and the lack of education opportunities. In parallel with the growth of the cities is the growing need for food which leads to the burgeoning expansion of urban and peri-urban agriculture (UPA). In this context, urban agriculture (UA) contributes significantly to supplying local markets with both vegetable and animal produce. As an income generating activity, UA also contributes to the livelihoods of poor urban dwellers. In order to evaluate the nutrient status of urban soils in relation to garden management, this study assessed nutrient fluxes (inputs and outputs) in gardens on urban Gerif soils on the banks of the River Nile in Khartoum, the capital city of Sudan. To achieve this objective, a preliminary baseline survey was carried out to describe the structure of the existing garden systems. In cooperation with the author of another PhD thesis (Ms. Ishtiag Abdalla), alternative uses of cow dung in brick making kilns in urban Khartoum were assessed; and the socio-economic criteria of the brick kiln owners or agents, economical and plant nutritional value of animal dung and the gaseous emission related to brick making activities were assessed. A total of 40 household heads were interviewed using a semi-structured questionnaire to collect information on demographic, socio-economic and migratory characteristics of the household members, the gardening systems used and the problems encountered in urban gardening. Based on the results of this survey, gardens were divided into three groups: mixed vegetable-fodder gardens, mixed vegetable-subsistence livestock gardens and pure vegetable gardens. The results revealed that UA is the exclusive domain of men, 80% of them non-native to Khartoum. The harvested produce in all gardens was market oriented and represented the main source of income for 83% of the gardeners. Fast growing leafy vegetables such as Jew’s mallow (Corchorous olitorius L.), purslane (Portulaca oleracea L.) and rocket (Eruca sativa Mill.) were the dominant cultivated species. Most of the gardens (95%) were continuously cultivated throughout the year without any fallow period, unless they were flooded. Gardeners were not generally aware of the importance of crop diversity, which may help them overcome the strongly fluctuating market prices for their produce and thereby strengthen the contributions of UA to the overall productivity of the city. To measure nutrient fluxes, four gardens were selected and their nutrients inputs and outputs flows were monitored. In each garden, all plots were monitored for quantification of nutrient inputs and outputs. To determine soil chemical fertility parameters in each of the studied gardens, soil samples were taken from three selected plots at the beginning of the study in October 2007 (gardens L1, L2 and H1) and in April 2008 (garden H2) and at the end of the study period in March 2010. Additional soil sampling occurred in May 2009 to assess changes in the soil nutrient status after the River Nile flood of 2008 had receded. Samples of rain and irrigation water (river and well-water) were analyzed for nitrogen (N), phosphorus (P), potassium (K) and carbon (C) content to determine their nutrient inputs. Catchment traps were installed to quantify the sediment yield from the River Nile flood. To quantify the nutrient inputs of sediments, samples were analyzed for N, P, K and organic carbon (Corg) content, cation exchange capacity (CEC) and the particle size distribution. The total nutrient inputs were calculated by multiplying the sediment nutrient content by total sediment deposits on individual gardens. Nutrient output in the form of harvested yield was quantified at harvest of each crop. Plant samples from each field were dried, and analyzed for their N, P, K and Corg content. Cumulative leaching losses of mineral N and P were estimated in a single plot in garden L1 from December 1st 2008 to July 1st 2009 using 12 ion exchange resins cartridges. Nutrients were extracted and analyzed for nitrate (NO3--N), ammonium (NH4+-N) and phosphate PO4-3-P. Changes in soil nutrient balance were assessed as inputs minus outputs. The results showed that across gardens, soil N and P concentrations increased from 2007 to 2009, while particle size distribution remained unchanged. Sediment loads and their respective contents of N, P and Corg decreased significantly (P < 0.05) from the gardens of the downstream lowlands (L1 and L2) to the gardens of the upstream highlands (H1 and H2). No significant difference was found in K deposits. None of the gardens received organic fertilizers and the only mineral fertilizer applied was urea (46-0-0). This equaled 29, 30, 54, and 67% of total N inputs to gardens L1, L2, H1, and H2, respectively. Sediment deposits of the River Nile floods contributed on average 67, 94, 6 and 42% to the total N, P, K and C inputs in lowland gardens and 33, 86, 4 and 37% of total N, P, K and C inputs in highland gardens. Irrigation water and rainfall contributed substantially to K inputs representing 96, 92, 94 and 96% of total K influxes in garden L1, L2, H1 and H2, respectively. Following the same order, total annual DM yields in the gardens were 26, 18, 16 and 1.8 t ha-1. Annual leaching losses were estimated to be 0.02 kg NH4+-N ha-1 (SE = 0.004), 0.03 kg NO3--N ha-1 (SE = 0.002) and 0.005 kg PO4-3-P ha-1 (SE = 0.0007). Differences between nutrient inputs and outputs indicated negative nutrient balances for P and K and positive balances of N and C for all gardens. The negative balances in P and K call for adoptions of new agricultural techniques such as regular manure additions or mulching which may enhance the soil organic matter status. A quantification of fluxes not measured in our study such as N2-fixation, dry deposition and gaseous emissions of C and N would be necessary to comprehensively assess the sustainability of these intensive gardening systems. The second part of the survey dealt with the brick making kilns. A total of 50 brick kiln owners/or agents were interviewed from July to August 2009, using a semi-structured questionnaire. The data collected included general information such as age, family size, education, land ownership, number of kilns managed and/or owned, number of months that kilns were in operation, quantity of inputs (cow dung and fuel wood) used, prices of inputs and products across the production season. Information related to the share value of the land on which the kilns were built and annual income for urban farmers and annual returns from dung for the animal raisers was also collected. Using descriptive statistics, budget calculation and Gini coefficient, the results indicated that renting the land to brick making kilns yields a 5-fold higher return than the rent for agriculture. Gini coefficient showed that the kiln owners had a more equal income distribution compared to farmers. To estimate emission of greenhouse gases (GHGs) and losses of N, P, K, Corg and DM from cow dung when used in brick making, samples of cow dung (loose and compacted) were collected from different kilns and analyzed for their N, P, K and Corg content. The procedure modified by the Intergovernmental Panel on Climate Change (IPCC, 1994) was used to estimate the gaseous emissions of cow dung and fuel wood. The amount of deforested wood was estimated according to the default values for wood density given by Dixon et al. (1991) and the expansion ratio for branches and small trees given by Brown et al. (1989). The data showed the monetary value of added N and P from cow dung was lower than for mineral fertilizers. Annual consumption of compacted dung (381 t DM) as biomass fuel by far exceeded the consumption of fuel wood (36 t DM). Gaseous emissions from cow dung and fuel wood were dominated by CO2, CO and CH4. Considering that Gerif land in urban Khartoum supports a multifunctional land use system, efficient use of natural resources (forest, dung, land and water) will enhance the sustainability of the UA and brick making activities. Adoption of new kilns with higher energy efficiency will reduce the amount of biomass fuels (cow dung and wood) used the amount of GHGs emitted and the threat to the few remaining forests.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optische Spektrometer sind bekannte Instrumente für viele Anwendungen in Life Sciences, Produktion und Technik aufgrund ihrer guten Selektivität und Sensitivität zusammen mit ihren berührungslosen Messverfahren. MEMS (engl. Micro-electro-mechanical system)-basierten Spektrometer werden als disruptive Technologie betrachtet, in der miniaturisierte Fabry-Pérot Filter als sehr attraktiv für die optische Kommunikation und 'Smart Personal Environments', einschließlich des medizinischen Anwendungen, zu nennen sind. Das Ziel dieser Arbeit ist, durchstimmbare Filter-Arrays mit kostengünstigen Technologien herzustellen. Materialien und technologische Prozesse, die für die Herstellung der Filter-Arrays benötigt werden, wurden untersucht. Im Rahmen dieser Arbeit, wurden durchstimmbare Fabry Pérot Filter-Arrays für den sichtbaren Spektralbereich untersucht, die als Nano-Spektrometer eingesetzt werden. Darüber hinaus wurde ein Modell der numerischen Simulation vorgestellt, die zur Ermittlung eines optimales geometrisches Designs verwendet wurde, wobei sich das Hauptaugenmerk der Untersuchung auf die Durchbiegung der Filtermembranen aufgrund der mechanischen Verspannung der Schichten richtet. Die geometrische Form und Größe der Filtermembranen zusammen mit der Verbindungsbrücken sind von entscheidender Bedeutung, da sie die Durchbiegung beeinflussen. Lange und schmale Verbindungsbrücken führen zur stärkeren Durchbiegung der Filtermembranen. Dieser Effekt wurde auch bei der Vergrößerung der Durchmesser der Membran beobachtet. Die Filter mit spiralige (engl. curl-bent) Verbindungsbrücken führten zu geringerer Deformation als die mit geraden oder gebogenen Verbindungsbrücken. Durchstimmbare Si3N4/SiO2 DBR-basierende Filter-Arrays wurden erfolgreich hergestellt. Eine Untersuchung über die UV-NIL Polymere, die als Opferschicht und Haltepfosten-Material der Filter verwendet wurden, wurde durchgeführt. Die Polymere sind kompatibel zu dem PECVD-Verfahren, das für die Spiegel-Herstellung verwendet wird. Die laterale Strukturierung der DBR-Spiegel mittels des RIE (engl. Reactive Ion Etching)-Prozesses sowie der Unterätz-Prozess im Sauerstoffplasma zur Entfernung der Opferschicht und zum Erreichen der Luftspalt-Kavität, wurden durchgeführt. Durchstimmbare Filter-Arrays zeigten einen Abstimmbereich von 70 nm bei angelegten Spannungen von weniger als 20 V. Optimierungen bei der Strukturierung von TiO2/SiO2 DBR-basierenden Filtern konnte erzielt werden. Mit der CCP (engl. Capacitively Coupling Plasma)-RIE, wurde eine Ätzrate von 20 nm/min erreicht, wobei Fotolack als Ätzmaske diente. Mit der ICP (engl. Inductively Coupling Plasma)-RIE, wurden die Ätzrate von mehr als 60 nm/min mit einem Verhältniss der Ar/SF6 Gasflüssen von 10/10 sccm und Fotolack als Ätzmasken erzielt. Eine Ätzrate von 80 bis 90 nm/min wurde erreicht, hier diente ITO als Ätzmaske. Ausgezeichnete geätzte Profile wurden durch den Ätzprozess unter Verwendung von 500 W ICP/300 W RF-Leistung und Ar/SF6 Gasflüsse von 20/10 sccm erreicht. Die Ergebnisse dieser Arbeit ermöglichen die Realisierung eines breiten Spektralbereichs der Filter-Arrays im Nano-Spektrometer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Laut dem Statistischen Bundesamts ist die Zahl der im Straßenverkehr getöteten Personen zwar rückläufig, jedoch wurden in 2010 in Deutschland noch immer 3648 Personen bei Unfällen im Straßenverkehr getötet, 476 davon waren Fußgänger. In den letzten Dekaden lag der Schwerpunkt der Forschungsarbeiten zur Reduzierung der Verkehrstoten besonders im Bereich des Insassenschutzes. Erst in den letzten Jahren rückte die Thematik des Fußgängerschutzes mehr in den Fokus des öffentlichen Interesses und der Automobilhersteller. Forschungsarbeiten beschäftigen sich mit unterschiedlichen Ansätzen die Folgen einer Kollision zwischen einem Auto und einem Fußgänger zu reduzieren. Hierzu zählen z.B. weiche Aufprallzonen im Frontbereich eines Autos, aufstellende Motorhaube oder auch Fußgängerairbags im Bereich der Frontscheibe. Da passive Ansätze aber nur die Folgen eines Aufpralls am Fahrzeug, nicht aber die Folgen eines Sekundäraufpralls auf dem Boden verringern können, werden parallel Ansätze zur aktiven Kollisionsvermeidung untersucht. Die bisher verfolgten, ebenso wertvollen Ansätze, zeigen jedoch jeweils Schwachpunkte in Ihrer Lösung. So ist der Einsatz der bisherigen bordautonomen Ansätze auf Grund der Anforderungen der verschiedenen Systeme, wie der Notwendigkeit einer direkten, ungestörten Sichtverbindung zwischen Auto und Fußgänger, leider nur eingeschränkt möglich. Kooperative Systeme, die ein zusätzliches, vom Fußgänger mitzuführendes Sende-Empfänger Gerät zur Ermittlung der Fußgängerposition benötigen sind hingegen mit zusätzlichem Aufwand für den Fußgänger verbunden. Auch fehlen den bisher verfolgten Ansätzen Informationen über den Fußgänger, wodurch es schwierig ist, wenn nicht gar manchmal unmöglich, eine Situation korrekt bewerten zu können. Auch sehen diese Systeme keine Warnung des Fußgängers vor. In dieser Arbeit wird ein Verfahren zum Fußgängerschutz betrachtet, welches per Funk ausgetauschte Informationen zur Risikobewertung eines Szenarios nutzt. Hierbei werden neben den vom Auto bekannten Informationen und Parameter, die vom Smartphone des Fußgängers zur Verfügung gestellten Kontextinformationen verwendet. Es werden zum einen die Parameter, Bedingungen und Anforderungen analysiert und die Architektur des Systems betrachtet. Ferner wird das Ergbnis einer Untersuchung zur generellen Umsetzbarkeit mit bereits heute in Smartphone verfügbaren Funktechnolgien vorgestellt. Final werden die bereits vielversprechenden Ergebnisse eines ersten Experiments zur Nutzbarkeit von Sensorinformationen des Smartphones im Bereich der Kollisionsvermeidung vorgestellt und diskutiert.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Auszeichnungssprache XML dient zur Annotation von Dokumenten und hat sich als Standard-Datenaustauschformat durchgesetzt. Dabei entsteht der Bedarf, XML-Dokumente nicht nur als reine Textdateien zu speichern und zu transferieren, sondern sie auch persistent in besser strukturierter Form abzulegen. Dies kann unter anderem in speziellen XML- oder relationalen Datenbanken geschehen. Relationale Datenbanken setzen dazu bisher auf zwei grundsätzlich verschiedene Verfahren: Die XML-Dokumente werden entweder unverändert als binäre oder Zeichenkettenobjekte gespeichert oder aber aufgespalten, sodass sie in herkömmlichen relationalen Tabellen normalisiert abgelegt werden können (so genanntes „Flachklopfen“ oder „Schreddern“ der hierarchischen Struktur). Diese Dissertation verfolgt einen neuen Ansatz, der einen Mittelweg zwischen den bisherigen Lösungen darstellt und die Möglichkeiten des weiterentwickelten SQL-Standards aufgreift. SQL:2003 definiert komplexe Struktur- und Kollektionstypen (Tupel, Felder, Listen, Mengen, Multimengen), die es erlauben, XML-Dokumente derart auf relationale Strukturen abzubilden, dass der hierarchische Aufbau erhalten bleibt. Dies bietet zwei Vorteile: Einerseits stehen bewährte Technologien, die aus dem Bereich der relationalen Datenbanken stammen, uneingeschränkt zur Verfügung. Andererseits lässt sich mit Hilfe der SQL:2003-Typen die inhärente Baumstruktur der XML-Dokumente bewahren, sodass es nicht erforderlich ist, diese im Bedarfsfall durch aufwendige Joins aus den meist normalisierten und auf mehrere Tabellen verteilten Tupeln zusammenzusetzen. In dieser Arbeit werden zunächst grundsätzliche Fragen zu passenden, effizienten Abbildungsformen von XML-Dokumenten auf SQL:2003-konforme Datentypen geklärt. Darauf aufbauend wird ein geeignetes, umkehrbares Umsetzungsverfahren entwickelt, das im Rahmen einer prototypischen Applikation implementiert und analysiert wird. Beim Entwurf des Abbildungsverfahrens wird besonderer Wert auf die Einsatzmöglichkeit in Verbindung mit einem existierenden, ausgereiften relationalen Datenbankmanagementsystem (DBMS) gelegt. Da die Unterstützung von SQL:2003 in den kommerziellen DBMS bisher nur unvollständig ist, muss untersucht werden, inwieweit sich die einzelnen Systeme für das zu implementierende Abbildungsverfahren eignen. Dabei stellt sich heraus, dass unter den betrachteten Produkten das DBMS IBM Informix die beste Unterstützung für komplexe Struktur- und Kollektionstypen bietet. Um die Leistungsfähigkeit des Verfahrens besser beurteilen zu können, nimmt die Arbeit Untersuchungen des nötigen Zeitbedarfs und des erforderlichen Arbeits- und Datenbankspeichers der Implementierung vor und bewertet die Ergebnisse.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Inhalt dieser Arbeit ist ein Verfahren zur numerischen Lösung der zweidimensionalen Flachwassergleichung, welche das Fließverhalten von Gewässern, deren Oberflächenausdehnung wesentlich größer als deren Tiefe ist, modelliert. Diese Gleichung beschreibt die gravitationsbedingte zeitliche Änderung eines gegebenen Anfangszustandes bei Gewässern mit freier Oberfläche. Diese Klasse beinhaltet Probleme wie das Verhalten von Wellen an flachen Stränden oder die Bewegung einer Flutwelle in einem Fluss. Diese Beispiele zeigen deutlich die Notwendigkeit, den Einfluss von Topographie sowie die Behandlung von Nass/Trockenübergängen im Verfahren zu berücksichtigen. In der vorliegenden Dissertation wird ein, in Gebieten mit hinreichender Wasserhöhe, hochgenaues Finite-Volumen-Verfahren zur numerischen Bestimmung des zeitlichen Verlaufs der Lösung der zweidimensionalen Flachwassergleichung aus gegebenen Anfangs- und Randbedingungen auf einem unstrukturierten Gitter vorgestellt, welches in der Lage ist, den Einfluss topographischer Quellterme auf die Strömung zu berücksichtigen, sowie in sogenannten \glqq lake at rest\grqq-stationären Zuständen diesen Einfluss mit den numerischen Flüssen exakt auszubalancieren. Basis des Verfahrens ist ein Finite-Volumen-Ansatz erster Ordnung, welcher durch eine WENO Rekonstruktion unter Verwendung der Methode der kleinsten Quadrate und eine sogenannte Space Time Expansion erweitert wird mit dem Ziel, ein Verfahren beliebig hoher Ordnung zu erhalten. Die im Verfahren auftretenden Riemannprobleme werden mit dem Riemannlöser von Chinnayya, LeRoux und Seguin von 1999 gelöst, welcher die Einflüsse der Topographie auf den Strömungsverlauf mit berücksichtigt. Es wird in der Arbeit bewiesen, dass die Koeffizienten der durch das WENO-Verfahren berechneten Rekonstruktionspolynome die räumlichen Ableitungen der zu rekonstruierenden Funktion mit einem zur Verfahrensordnung passenden Genauigkeitsgrad approximieren. Ebenso wird bewiesen, dass die Koeffizienten des aus der Space Time Expansion resultierenden Polynoms die räumlichen und zeitlichen Ableitungen der Lösung des Anfangswertproblems approximieren. Darüber hinaus wird die wohlbalanciertheit des Verfahrens für beliebig hohe numerische Ordnung bewiesen. Für die Behandlung von Nass/Trockenübergangen wird eine Methode zur Ordnungsreduktion abhängig von Wasserhöhe und Zellgröße vorgeschlagen. Dies ist notwendig, um in der Rechnung negative Werte für die Wasserhöhe, welche als Folge von Oszillationen des Raum-Zeit-Polynoms auftreten können, zu vermeiden. Numerische Ergebnisse die die theoretische Verfahrensordnung bestätigen werden ebenso präsentiert wie Beispiele, welche die hervorragenden Eigenschaften des Gesamtverfahrens in der Berechnung herausfordernder Probleme demonstrieren.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Diese Arbeit befasst sich mit der Modellbildung mechatronischer Systeme mit Reibung. Geeignete dynamische Modelle sind die Grundlage für verschiedenste Aufgabenstellungen. Sind dynamische Prozessmodelle verfügbar, so können leistungsfähige modellbasierte Entwurfsmethoden angewendet werden sowie modellbasierte Anwendungen entwickelt werden. Allerdings ist der Aufwand für die Modellbildung ein beschränkender Faktor für eine weite Verbreitung modellbasierter Applikationen in der Praxis. Eine Automatisierung des Modellbildungsprozesses ist deshalb von großem Interesse. Die vorliegende Arbeit stellt für die Klasse „mechatronischer Systeme mit Reibung“ drei Modellierungsmethoden vor: semi-physikalische Modellierung, Sliding-Mode-Beobachter-basierte Modellierung und empirische Modellierung mit einem stückweise affinen (PWA) Modellansatz. Zum Ersten wird die semi-physikalische Modellierung behandelt. Gegenüber anderen Verfahren, die häufig umfangreiche Vorkenntnisse und aufwändige Experimente erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand automatisiert werden kann. Zum Zweiten wird ein neuer Ansatz zur Reibkraftrekonstruktion und Reibmodellierung mittels Sliding-Mode-Beobachter präsentiert. Durch Verwendung des vorgestellten Sliding-Mode- Beobachters, der basierend auf einem einfachen linearen Zustandsraummodell entworfen wird, lässt sich die Reibung datengetrieben aus den Ein-/Ausgangsmessdaten (im offenen Regelkreis) rekonstruieren und modellieren. Im Vergleich zu anderen Reibmodellierungsmethoden, die häufig umfangreiche Vorkenntnisse und aufwändige Messungen im geschlossenen Regelkreis erfordern, haben diese neuen Verfahren den Vorteil, dass die Modellierung von Systemen mit Reibung selbst bei begrenzten Vorkenntnissen und minimalem Experimentaufwand weitgehend automatisiert werden kann. Zum Dritten wird ein PWA-Modellierungsansatz mit einer clusterungsbasierten Identifikationsmethode für Systeme mit Reibung vorgestellt. In dieser Methode werden die Merkmale in Hinblick auf Reibeffekte ausgewählt. Und zwar wird der klassische c-Means-Algorithmus verwendet, welcher bedienfreundlich, effizient und geeignet für große und reale Datensätze ist. Im Gegensatz zu anderen Methoden sind bei dieser Methode nur wenige Entwurfsparameter einzustellen und sie ist für reale Systeme mit Reibung einfach anwendbar. Eine weitere Neuheit der vorgestellten PWA-Methode liegt darin, dass die Kombination der Clustervaliditätsmaße und Modellprädiktionsfehler zur Festlegung der Anzahl der Teilmodelle benutzt wird. Weiterhin optimiert die vorgestellte Methode die Parameter der lokalen Teilmodelle mit der OE (Output-Fehler)-Schätzmethode. Als Anwendungsbeispiele werden Drosselklappen, Drallklappen und AGR-Ventile (Abgasrückführventil) im Dieselfahrzeug betrachtet und die erzeugten Modelle werden in der industriellen HiL-Simulation eingesetzt. Aufgrund der Effizienz und Effektivität der Modellierungsmethoden sind die vorgestellten Methoden direkt in der automobilen Praxis einsetzbar.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Optische Spektroskopie ist eine sehr wichtige Messtechnik mit einem hohen Potential für zahlreiche Anwendungen in der Industrie und Wissenschaft. Kostengünstige und miniaturisierte Spektrometer z.B. werden besonders für moderne Sensorsysteme “smart personal environments” benötigt, die vor allem in der Energietechnik, Messtechnik, Sicherheitstechnik (safety and security), IT und Medizintechnik verwendet werden. Unter allen miniaturisierten Spektrometern ist eines der attraktivsten Miniaturisierungsverfahren das Fabry Pérot Filter. Bei diesem Verfahren kann die Kombination von einem Fabry Pérot (FP) Filterarray und einem Detektorarray als Mikrospektrometer funktionieren. Jeder Detektor entspricht einem einzelnen Filter, um ein sehr schmales Band von Wellenlängen, die durch das Filter durchgelassen werden, zu detektieren. Ein Array von FP-Filter wird eingesetzt, bei dem jeder Filter eine unterschiedliche spektrale Filterlinie auswählt. Die spektrale Position jedes Bandes der Wellenlänge wird durch die einzelnen Kavitätshöhe des Filters definiert. Die Arrays wurden mit Filtergrößen, die nur durch die Array-Dimension der einzelnen Detektoren begrenzt werden, entwickelt. Allerdings erfordern die bestehenden Fabry Pérot Filter-Mikrospektrometer komplizierte Fertigungsschritte für die Strukturierung der 3D-Filter-Kavitäten mit unterschiedlichen Höhen, die nicht kosteneffizient für eine industrielle Fertigung sind. Um die Kosten bei Aufrechterhaltung der herausragenden Vorteile der FP-Filter-Struktur zu reduzieren, wird eine neue Methode zur Herstellung der miniaturisierten FP-Filtern mittels NanoImprint Technologie entwickelt und präsentiert. In diesem Fall werden die mehreren Kavitäten-Herstellungsschritte durch einen einzigen Schritt ersetzt, die hohe vertikale Auflösung der 3D NanoImprint Technologie verwendet. Seit dem die NanoImprint Technologie verwendet wird, wird das auf FP Filters basierende miniaturisierte Spectrometer nanospectrometer genannt. Ein statischer Nano-Spektrometer besteht aus einem statischen FP-Filterarray auf einem Detektorarray (siehe Abb. 1). Jeder FP-Filter im Array besteht aus dem unteren Distributed Bragg Reflector (DBR), einer Resonanz-Kavität und einen oberen DBR. Der obere und untere DBR sind identisch und bestehen aus periodisch abwechselnden dünnen dielektrischen Schichten von Materialien mit hohem und niedrigem Brechungsindex. Die optischen Schichten jeder dielektrischen Dünnfilmschicht, die in dem DBR enthalten sind, entsprechen einen Viertel der Design-Wellenlänge. Jeder FP-Filter wird einer definierten Fläche des Detektorarrays zugeordnet. Dieser Bereich kann aus einzelnen Detektorelementen oder deren Gruppen enthalten. Daher werden die Seitenkanal-Geometrien der Kavität aufgebaut, die dem Detektor entsprechen. Die seitlichen und vertikalen Dimensionen der Kavität werden genau durch 3D NanoImprint Technologie aufgebaut. Die Kavitäten haben Unterschiede von wenigem Nanometer in der vertikalen Richtung. Die Präzision der Kavität in der vertikalen Richtung ist ein wichtiger Faktor, der die Genauigkeit der spektralen Position und Durchlässigkeit des Filters Transmissionslinie beeinflusst.