9 resultados para mehrstufiges Prognosemodell
Resumo:
Insbesondere bei Antriebssystemen stehen die Energiekosten neben den Anschaffungskosten im Fokus. Jedoch bleiben weitere Folgekosten, die im Laufe des Betriebs eines Antriebssystems in einem Fördermittel entstehen, meist unberücksichtigt. Dieser Artikel beschreibt einen Ansatz, wie sich Lebenszykluskosten von Antriebssystemen in Stetigfördertechnik prognostizieren lassen. Mit Hilfe von allgemein bekannten Normen und Richtlinien kann der Lebenszyklus eines Antriebssystems von der Projektierung über die Herstellung bis zur Entsorgung nach dem Betrieb in Kostenarten eingeteilt und veranschaulicht werden. Unter Verwendung von direkter Verrechnung als auch der Kalkulation mit Prozesskosten wird eine hinreichende Genauigkeit anhand definierter Prozessketten erreicht. Auf Basis dieser Kostenkalkulationen kann ein mehrstufiges Prognosemodell gebildet werden. Somit konnten durch das entwickelnde Modell Anlagenbeispiele untersucht und berechnet werden.
Resumo:
Flurförderzeuge leisten einen wesentlichen Beitrag zu den Treibhausgasemissionen in der EU. Aktuell wird ihr Verbrauch in Deutschland in der Regel per VDI-Zyklus prognostiziert. Dieser hat allerdings keinen Bezug zu dem tatsächlichen Nutzungsprofil eines konkreten Flurförderzeugs. Es soll untersucht werden, inwiefern ein modularer Aufbau, der sich einsatzspezifisch anpassen lässt, eine verbesserte Prognose der Verbräuche ermöglicht. Zudem soll analysiert werden, wie viel Mehraufwand diese verbesserte Möglichkeit der Vorhersage für die Hersteller bzw. die Nutzer bedeutet. Am MTL ist ein Messsystem aufgebaut worden, welches neben dem Energieverbrauch auch die Einflussparameter aufnimmt. Es werden exemplarische Messungen vorgestellt.
Resumo:
Die Maßnahmen zur Förderung der Windenergie in Deutschland haben wichtige Anstöße zur technologischen Weiterentwicklung geliefert und die Grundlagen für den enormen Anlagenzubau geschaffen. Die installierte Windleistung hat heute eine beachtliche Größenordnung erreicht und ein weiteres Wachstum in ähnlichen Dimensionen ist auch für die nächsten Jahre zu erwarten. Die aus Wind erzeugte elektrische Leistung deckt bereits heute in einigen Netzbereichen die Netzlast zu Schwachlastzeiten. Dies zeigt, dass die Windenergie ein nicht mehr zu vernachlässigender Faktor in der elektrischen Energieversorgung geworden ist. Im Rahmen der Kraftwerkseinsatzplanung sind Betrag und Verlauf der Windleistung des folgenden Tages mittlerweile zu wichtigen und zugleich schwierig zu bestimmenden Variablen geworden. Starke Schwankungen und falsche Prognosen der Windstromeinspeisung verursachen zusätzlichen Bedarf an Regel- und Ausgleichsleistung durch die Systemführung. Das im Rahmen dieser Arbeit entwickelte Prognosemodell liefert die zu erwartenden Windleistungen an 16 repräsentativen Windparks bzw. Gruppen von Windparks für bis zu 48 Stunden im Voraus. Aufgrund von prognostizierten Wetterdaten des deutschen Wetterdienstes (DWD) werden die Leistungen der einzelnen Windparks mit Hilfe von künstlichen neuronalen Netzen (KNN) berechnet. Diese Methode hat gegenüber physikalischen Verfahren den Vorteil, dass der komplexe Zusammenhang zwischen Wettergeschehen und Windparkleistung nicht aufwendig analysiert und detailliert mathematisch beschrieben werden muss, sondern anhand von Daten aus der Vergangenheit von den KNN gelernt wird. Das Prognosemodell besteht aus zwei Modulen. Mit dem ersten wird, basierend auf den meteorologischen Vorhersagen des DWD, eine Prognose für den Folgetag erstellt. Das zweite Modul bezieht die online gemessenen Leistungsdaten der repräsentativen Windparks mit ein, um die ursprüngliche Folgetagsprognose zu verbessern und eine sehr genaue Kurzzeitprognose für die nächsten drei bis sechs Stunden zu berechnen. Mit den Ergebnissen der Prognosemodule für die repräsentativen Standorte wird dann über ein Transformationsmodell, dem so genannten Online-Modell, die Gesamteinspeisung in einem größeren Gebiet berechnet. Das Prognoseverfahren hat seine besonderen Vorzüge in der Genauigkeit, den geringen Rechenzeiten und den niedrigen Betriebskosten, da durch die Verwendung des bereits implementierten Online-Modells nur eine geringe Anzahl von Vorhersage- und Messstandorten benötigt wird. Das hier vorgestellte Prognosemodell wurde ursprünglich für die E.ON-Netz GmbH entwickelt und optimiert und ist dort seit Juli 2001 im Einsatz. Es lässt sich jedoch auch leicht an andere Gebiete anpassen. Benötigt werden dazu nur die Messdaten der Leistung ausgewählter repräsentativer Windparks sowie die dazu gehörenden Wettervorhersagen, um die KNN entsprechend zu trainieren.
Resumo:
Ein neuartiges, mehrstufiges Syntheseverfahren wurde zur Darstellung von unterschiedlichen Stärkederivaten (Ether und Ester) entwickelt, die hinsichtlich ihres Eigenschaftsprofils und ihrer Reinheit für die klinische Anwendung als Blutvolumenersatzmittel geeignet sind. Die Synthesen wurden dahingehend gestaltet, dass Produkte mit einer hohen Regioselektivität resultierten. Dabei konnten sämtliche Reaktionsschritte, die zur Modifikation der ursprünglich eingesetzten Wachsmais- und Kartoffelstärken notwendig waren, in einem homogenen, wäss-rigen System ohne zwischenzeitliche Aufarbeitung in einem Eintopfverfahren durchgeführt werden. Die auf diese Weise bevorzugt synthetisierten Carboxymethylstärken wurden mit NMR-spektroskopischen Methoden und GPC-MALLS strukturell eingehend charakterisiert. Mit eigens entwickelten Enzym-Assays konnten essentielle Informationen über die physiolo-gische Wirksamkeit der verschiedenen Stärkederivate in vitro gewonnen werden. Die Ergebnisse konnten mit Untersuchungen an Humanblut verifiziert werden.
Resumo:
Spätestens seit der Formulierung der modernen Portfoliotheorie durch Harry Markowitz (1952) wird den aktiven Portfoliomanagementstrategien besondere Aufmerksamkeit in Wissenschaft und Anlagepraxis gewidmet. Diese Arbeit ist im Schnittstellenbereich zwischen neoklassischer Kapitalmarkttheorie und technischer Analyse angesiedelt. Es wird untersucht, inwieweit eine passive Buy&Hold-Strategie, die als einzige im Einklang mit der Effizienzmarkthypothese nach Fama (1970) steht, durch Verwendung von aktiven Strategien geschlagen werden kann. Der Autor präsentiert einen Wavelet-basierten Ansatz für die Analyse der Finanzzeitreihen. Die Wavelet-Transformation wird als ein mathematisches Datenaufbereitungstool herangezogen und ermöglicht eine Multiskalendarstellung einer Datenreihe, durch das Aufspalten dieser in eine Approximationszeitreihe und eine Detailszeitreihe, ohne dass dadurch Informationen verloren gehen. Diese Arbeit beschränkt sich auf die Verwendung der Daubechies Wavelets. Die Multiskalendarstellung dient als Grundlage für die Entwicklung von zwei technischen Indikatoren. Der Wavelet Stochastik Indikator greift auf die Idee des bekannten Stochastik-Indikators zurück und verwendet nicht mehr die Kurszeitreihe, sondern die Approximationszeitreihe als Input. Eine auf diesem Indikator basierende Investmentstrategie wird umfangreicher Sensitivitätsanalyse unterworfen, die aufzeigt, dass eine Buy&Hold-Strategie durchaus outperformt werden kann. Die Idee des Momentum-Indikators wird durch den Wavelet Momentum Indikator aufgegriffen, welcher die Detailszeitreihen als Input heranzieht. Im Rahmen der Sensitivitätsanalyse einer Wavelet Momentum Strategie wird jedoch die Buy&Hold -Strategie nicht immer geschlagen. Ein Wavelet-basiertes Prognosemodell verwendet ähnlich wie die technischen Indikatoren die Multiskalendarstellung. Die Approximationszeitreihen werden dabei durch das Polynom 2. Grades und die Detailszeitreihen durch die Verwendung der Sinusregression extrapoliert. Die anschließende Aggregation der extrapolierten Zeitreihen führt zu prognostizierten Wertpapierkursen. Kombinierte Handelsstrategien zeigen auf, wie Wavelet Stochastik Indikator, Wavelet Momentum Indikator und das Wavelet-basierte Prognosemodell miteinander verknüpft werden können. Durch die Verknüpfung einzelner Strategien gelingt es, die Buy&Hold-Strategie zu schlagen. Der letzte Abschnitt der Arbeit beschäftigt sich mit der Modellierung von Handelssystem-portfolios. Angestrebt wird eine gleichzeitige Diversifikation zwischen Anlagen und Strategien, die einer ständigen Optimierung unterworfen wird. Dieses Verfahren wird als ein systematischer, an bestimmte Optimierungskriterien gebundener Investmentprozess verstanden, mit welchem es gelingt, eine passive Buy&Hold-Strategie zu outperformen. Die Arbeit stellt eine systematische Verknüpfung zwischen der diskreten Wavelet Transformation und technisch quantitativen Investmentstrategien her. Es werden auch die Problemfelder der durchaus viel versprechenden Verwendung der Wavelet Transformation im Rahmen der technischen Analyse beleuchtet.
Resumo:
Die vorliegende Arbeit behandelt den fluid-kristallinen Phasenübergang sowie den Glasübergang anhand von kolloidalen Hart-Kugel(HK)-Modellsystemen. Die Untersuchungen erfolgen dabei im Wesentlichen mit unterschiedlichen Lichtstreumethoden und daher im reziproken Raum. rnDie Analyse der Kristallisationskinetik zeigt, dass es bei der Kristallisation zu signifikanten Abweichungen vom Bild der klassischen Nukleationstheorie (CNT) kommt. Diese geht von einem einstufigen Nukleationsprozess aus, wohingegen bei den hier durchgeführten Experimenten ein mehrstufiger Prozess beobachtet wird. Vor der eigentlichen Kristallisation kommt es zunächst zur Nukleation einer metastabilen Zwischenphase, sogenannter Precursor. In einer zweiten Stufe erfolgt innerhalb der Precursor die eigentliche Nukleation der Kristallite. rnDurch weitere Analyse und den Vergleich des Kristallisations- und Verglasungsszenarios konnte das Konzept der Precursornukleation auf den Vorgang der Verglasung erweitert werden. Während die Kristallnukleation oberhalb des Glasübergangspunktes zum Erliegen kommt, bleibt der Prozess der Precursornukleation auch bei verglasenden Proben erhalten. Ein Glas erstarrt somit in einem amorphen Zustand mit lokalen Precursorstrukturen. Die Korrelation der gemessenen zeitlichen Entwicklung der strukturellen sowie der dynamischen Eigenschaften zeigt darüber hinaus, dass das bisher unverstandene Ageing-Phänomen von HK-Gläsern mit der Nukleation von Precursorn zusammenhängt.rnEin solches mehrstufiges Szenario wurde bereits in früheren Veröffentlichungen beobachtet. Die im Rahmen dieser Arbeit durchgeführten Messungen ermöglichten erstmals die Bestimmung von Kristallnukleationsratendichten (Kristall-NRD) und Ratendichten für die Precursornukleation bis über den Glasübergangspunkt hinaus. Die Kristall-NRD bestätigen die Resultate aus anderen experimentellen Arbeiten. Die weiteren Analysen der Kristall-NRD belegen, dass die fluid-kristalline Grenzflächenspannung bei der Nukleation entgegen den Annahmen der CNT nicht konstant ist, sondern mit ansteigendem Volumenbruch linear zunimmt. Die Erweiterung der CNT um eine linear zunehmende Grenzflächenspannung ermöglichte eine quantitative Beschreibung der gemessenen Kristall- sowie der Precursor-NRD, was den Schluss zulässt, dass es sich in beiden Fällen um einen Boltzmann-aktivierten Prozess handelt. rnUm die beobachteten Abweichungen des Nukleationsprozesses vom Bild der CNT näher zu untersuchen, wurden die kollektiven Partikeldynamiken in stabilen Fluiden und metastabilen Schmelzen analysiert. Im klassischen Bild wird angenommen, dass die kollektive Partikeldynamik beim Vorgang der Nukleation keine Rolle spielt. Anhand der Resultate zeigen sich Abweichungen in der Dynamik stabiler Fluide und metastabiler Schmelzen. Während die kollektive Partikeldynamik in der stabilen Schmelze von der Struktur entkoppelt ist, tritt oberhalb des Phasenübergangspunktes eine Kopplung von Struktur und Dynamik auf. Dabei treten die Abweichungen zunächst in der Umgebung des ersten Strukturfaktormaximums und somit bei den am stärksten besetzten Moden auf. Mit steigender Unterkühlung nehmen die Anzahl der abweichenden Moden sowie die Stärke der Abweichungen zu. Dieses Phänomen könnte einen signifikanten Einfluss auf den Nukleationsprozess und somit auf die Kristallisationskinetik haben. Die Analyse der Dynamik im stabilen Fluid zeigt darüber hinaus Hinweise auf eine Singularität bei Annäherung an den fluid-kristallinen Phasenübergangspunkt.rnDes Weiteren wurden im Rahmen der vorliegenden Arbeit erstmals Ratendichten für die heterogene Nukleation eines HK-Systems an einer flachen Wand mittels statischer Lichtstreuung (SLS) bestimmt. Die Ergebnisse der Messung zeigen, dass die Nukleationsbarriere der heterogenen Nukleation annähernd Null ist und folglich eine vollständige Benetzung der Wand mit einer kristallinen Monolage vorliegt. Die Erweiterung der Untersuchungen auf gekrümmte Oberflächen in Form von sphärischen Partikeln (Seeds) stellt die erste experimentelle Arbeit dar, die den Einfluss eines Ensembles von Seeds auf die Kristallisationskinetik in HK-Systemen untersucht. Die Kristallisationskinetik und die Mikrostruktur werden abhängig von Größe und Anzahldichte der Seed-Partikel signifikant beeinflusst. In Übereinstimmung mit konfokalmikroskopischen Experimenten und Simulationen spielt dabei das Radienverhältnis der Majoritäts- zur Minoritätskomponente eine entscheidende Rolle.
Resumo:
Die vorliegende Forschungsarbeit behandelt konfokalmikroskopische Untersuchungen zur Strukturbildung in kolloidalen Suspensionen, die als experimentelles Modellsystem für harte Kugeln verwendet werden. Die lokale und globale Struktur wurde im stabilen und metastabilen Fluid bestimmt. Bereits unterhalb des Gefriervolumenbruchs wurden nah-geordnete Cluster vorgefunden, die mit zunehmendem Volumenbruch häufiger und größer werden. Das Kristallwachstum aus der metastabilen kolloidalen Schmelze konnte quantitativ analysiert werden und es zeigt sich eine Übereinstimmung mehrerer Kenngrößen mit Literaturdaten nahe dem Schmelzvolumenbruch. Die Untersuchung demonstrierte die Realisierbarkeit der quantitativen Analyse der Kristallisationskinetik mittels konfokaler Mikroskopie. Es zeigte sich ein mehrstufiges Nukleationsszenario bei dem zuerst nah-geordnete Cluster gebildet werden, die im weiteren Verlauf zu kristall-artigen Clustern transformieren. Die Beobachtungen belegen den Mechanismus der Precursornukleation in Hartkugelsystemen. Die heterogene Nukleation wurde an glatten und an hexagonal strukturierten Substraten untersucht. Anhand der Kristallisationskinetik und der direkten Messung der Benetzungswinkel konnte ein Übergang des Benetzungsverhaltens unter Variation des Substratgitterabstands nachgewiesen werden: An glatten und an kommensurabel strukturierten Substraten zeigten sich eine vollständige Bedeckung des Substrats mit der kristallinen Phase und ein sofortiges unidirektionales Wachstum. Bei inkommensurabel strukturierten Substraten wurde eine unvollständige Bedeckung des strukturierten Substrats mit der kristallinen Phase sowie ein verzögertes isotropes Wachstum bei fortwährender Kristallnukleation beobachtet.
Resumo:
myTU, eine persönliche Lernplattform für Smartphones, die seit 2011 an der Technischen Universität Bergakademie Freiberg im Einsatz ist, wird zukünftig mit neuen und erweiterten Funktionen ausgestattet. Ziel ist es eine generalisierte Lernplattform für alle Hochschulen anzubieten, die das BYOD-Konzept konsequent umsetzt. Ausgehend von der derzeitigen Struktur und Umfang des Projektes wird eine Verbindung mit OPAL geschaffen, das Layout und die Schnittstellen generalisiert, Funktionen erweitert und ein mehrstufiges Authentisierungskonzept entwickelt und integriert. Im Folgenden wird der Status Quo erläutert und neue Konzepte des Projektes vorgestellt.
Resumo:
The main purpose of this study is to assess the relationship between six bioclimatic indices for cattle (temperature humidity (THI), environmental stress (ESI), equivalent temperature (ESI), heat load (HLI), modified heat load (HLInew) and respiratory rate predictor(RRP)) and fundamental milk components (fat, protein, and milk yield) considering uncertainty. The climate parameters used to calculate the climate indices were taken from the NASA-Modern Era Retrospective-Analysis for Research and Applications (NASA-MERRA) reanalysis from 2002 to 2010. Cow milk data were considered for the same period from April to September when cows use natural pasture, with possibility for cows to choose to stay in the barn or to graze on the pasture in the pasturing system. The study is based on a linear regression analysis using correlations as a summarizing diagnostic. Bootstrapping is used to represent uncertainty estimation through resampling in the confidence intervals. To find the relationships between climate indices (THI, ETI, HLI, HLInew, ESI and RRP) and main components of cow milk (fat, protein and yield), multiple liner regression is applied. The least absolute shrinkage selection operator (LASSO) and the Akaike information criterion (AIC) techniques are applied to select the best model for milk predictands with the smallest number of climate predictors. Cross validation is used to avoid over-fitting. Based on results of investigation the effect of heat stress indices on milk compounds separately, we suggest the use of ESI and RRP in the summer and ESI in the spring. THI and HLInew are suggested for fat content and HLInew also is suggested for protein content in the spring season. The best linear models are found in spring between milk yield as predictands and THI, ESI,HLI, ETI and RRP as predictors with p-value < 0.001 and R2 0.50, 0.49. In summer, milk yield with independent variables of THI, ETI and ESI show the highest relation (p-value < 0.001) with R2 (0.69). For fat and protein the results are only marginal. It is strongly suggested that new and significant indices are needed to control critical heat stress conditions that consider more predictors of the effect of climate variability on animal products, such as sunshine duration, quality of pasture, the number of days of stress (NDS), the color of skin with attention to large black spots, and categorical predictors such as breed, welfare facility, and management system. This methodology is suggested for studies investigating the impacts of climate variability/change on food quality/security, animal science and agriculture using short term data considering uncertainty or data collection is expensive, difficult, or data with gaps.