36 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden
Resumo:
[s.c.]
Resumo:
Mit dieser Bachelorarbeit möchte ich eine Grundlage schaffen, um die studentischen Projekte an der Hochschule Anhalt zu verstetigen. Sie soll dazu dienen, besonders engagierte Studenten zu motivieren während ihres Studiums Mittel und Wege zu finden, studentische Bauprojekte an der Hochschule Anhalt zu initiieren und durchzuführen. Gewonnene Arbeitsgrundlagen aus den bisherigen studentischen Bauprojekten werden in dieser Ausarbeitung zusammengefasst und ausgewertet. (...)
Resumo:
Die EU-Zuckermarktverordnung gibt Quoten für den Verbrauch und Import von Zucker und Isoglucose, einem durch enzymatische Stärkehydrolyse gewonnenen Sirup, vor. Die Quotenregelung entfällt 2017, so dass damit gerechnet wird, dass bei der Verarbeitung von Lebensmitteln, Isoglucose Zucker anteilig substituiert. Die vorliegende Bachelorarbeit gibt einen Überblick über Zucker und Zuckeralternativen, wobei sich insbesondere dem Thema Industriesirupe gewidmet wurde. Nach einer theoretischen Heranführung an die Bachelorthesis, erfolgten experimentelle Untersuchungen. Hierbei wurden die DE-Werte unbekannter Zuckersirupe untersucht und miteinander verglichen. Beim DE-Wert handelt es sich um das Dextrose-Äquivalent, das den Verzuckerungsgrad angibt. Die Standardmethode Lane-Eynon wurde im Vergleich zu den Bestimmungsmethoden Luff-Schoorl und HPLC (High Performance Liquid Chromatography) betrachtet und ausgewertet.
Resumo:
Otto-von Guericke-Universität Magdeburg, Fakultät für Maschinenbau, Dissertation, 2016
Resumo:
Magdeburg, Univ., Fak. für Verfahrens- und Systemtechnik, Diss., 2011
Resumo:
Theoretische Elektrotechnik, Elektromagnetische Verträglichkeit, Antennentheorie, Elektrodynamik, Mathematische Methoden der Physik, Leitungstheorie, Mikrowellentechnik, Hohlraumresonatoren
Resumo:
Visual data mining, multi-dimensional scaling, POLARMAP, Sammon's mapping, clustering, outlier detection
Resumo:
Ziel der vorliegenden Arbeit war es, Möglichkeiten zur Approximation des Vermögensendwerts von Fonds-Sparplänen, wie sie typischerweise von Banken und Versicherungen angeboten werden, aufzuspüren und zu untersuchen. Von Interesse sind hierbei Approximationen für die Verteilungsfunktion, Quantile, gestutzte Erwartungswerte und Tail-Values-at-Risk. Die Modellierung der zu Grunde liegenden Wertpapierpreisprozesse erfolgt, wie üblich, als geometrische Brownsche Bewegung, wodurch der Vermögensendwert eines Wertpapiersparplans strukturell eine Summe lognormalverteilter Zufallsvariablen ist. Die Verteilung einer solchen Summe ist jedoch bekanntlich nicht explizit anzugeben; deren Simulation ist natürlich möglich, jedoch ob der Vielzahl von bei einer Bank oder Versicherung zu verwaltender Sparpläne unpraktikabel. Immer wieder stößt man auf Arbeiten, in denen darauf hingewiesen wird, dass die Summe von lognormalverteilten Zufallsvariablen gut durch eine eindimensional lognormalverteilte Zufallsvariable, in der Regel durch eine mit demselben Erwartungswert und derselben Varianz, approximiert würde. Dies konnte meist einzig und allein durch Simulationen und numerische Berechnungen gestützt werden. Wir präsentieren hier ein Resultat, welches eine Rechtfertigung für die genannte Approximation liefert: die Verteilungskonvergenz gegen eine Lognormalverteilung bei verschwindenden Varianzen/ Kovarianzen der Summanden ...
Resumo:
Magdeburg, Univ., Fak. für Verfahrens- und Systemtechnik, Diss., 2010
Resumo:
Die Preise für Speicherplatz fallen stetig, da verwundert es nicht, dass Unternehmen riesige Datenmengen anhäufen und sammeln. Diese immensen Datenmengen müssen jedoch mit geeigneten Methoden analysiert werden, um für das Unternehmen überlebensnotwendige Muster zu identifizieren. Solche Muster können Probleme aber auch Chancen darstellen. In jedem Fall ist es von größter Bedeutung, rechtzeitig diese Muster zu entdecken, um zeitnah reagieren zu können. Um breite Nutzerschichten anzusprechen, müssen Analysemethoden ferner einfach zu bedienen sein, sofort Rückmeldungen liefern und intuitive Visualisierungen anbieten. Ich schlage in der vorliegenden Arbeit Methoden zur Visualisierung und Filterung von Assoziationsregeln basierend auf ihren zeitlichen Änderungen vor. Ich werde lingustische Terme (die durch Fuzzymengen modelliert werden) verwenden, um die Historien von Regelbewertungsmaßen zu charakterisieren und so eine Ordnung von relevanten Regeln zu generieren. Weiterhin werde ich die vorgeschlagenen Methoden auf weitereModellarten übertragen, die Software-Plattformvorstellen, die die Analysemethoden dem Nutzer zugänglich macht und schließlich empirische Auswertungen auf Echtdaten aus Unternehmenskooperationen vorstellen, die die Wirksamkeit meiner Vorschläge belegen.
Resumo:
Das Ziel der vorliegenden Arbeit war es, die Methoden zur Bestimmung der Keimzahl in der Kosmetik kennenzulernen und mit einer ausgewählten Methode die Keimzahl in rezepturmäßig hergestellten Cremes und Hydrogelen zu überprüfen. In dieser Arbeit wurden die Keimzahlen in den Cremes und Hydrogelen, die in verschiedenen Herstellungsumgebungen hergestellt wurden, bestimmt, um die Herstellungsumgebung im Labor und die Wirksamkeit von den in den Cremes und Gelen eingesetzten Konservierungsstoffen zu kontrollieren.
Resumo:
Der Begriff der Aufarbeitung beschreibt die verfahrenstechnischen Grundoperationen zur Isolierung des im Fermenter enthaltenen Wertproduktes. Bei der mikrobiellen Herstellung verschiedenster Produkte ist die Aufarbeitung aber der kosten- und arbeitsintensivste Faktor, so dass Optimierungen hinsichtlich der Effizienz wichtig sind. Die vorliegende Arbeit wurde im Helmholtz-Zentrum für Infektionsforschung angefertigt. Die Arbeitsgruppe Mikrobielle Wirkstoffe beschäftigt sich mit der Suche nach neuen antibiotisch wirkenden Sekundärmetaboliten aus Bodenbakterien und filamentösen Pilzen. Die Feststoff- Flüssig- Extraktion wird dabei zur Isolierung der Sekundärmetabolite genutzt. Das Myzel wird standardmäßig im Labormaßstab mit einer 30-minütigen Extraktion im Ultraschallbad behandelt. Die durchgeführten Versuche zeigen jedoch, dass andere Methoden des Leistungseintrages weniger Zeit beanspruchen, höhere Substanzausbeuten hervorbringen können und geringere Lösungsmittelvolumen zur Extraktion der Sekundärmetabolite genutzt werden können. Doch neben den genannten Vorteilen zeigte sich auch, dass der Verschmutzungsgrad mit intrazellulären Substanzen durch den mechanischen Energieeintrag zunehmen kann. (...) Neben der Feststoff- Flüssig- Extraktion des Myzels spielt auch die Extraktion eines standardmäßig eingesetzten Adsorberharzes XAD16 in der Arbeitsgruppe MWIS eine große Rolle. Dies wird zur Adsorption der Sekundärmetabolite aus der Fermentationsbrühe oder Überstand genutzt, nach der Fermentation mittels Filtration abgeerntet und anschließend extrahiert. Für diesen Schritt wurden verschiedene Downstreammethoden mit unterschiedlichen Lösungsmittelvolumen und Extraktionszeiten hinsichtlich der Substanzausbeute untersucht. (...)
Resumo:
Eine Vektoroperation ist die Berechnung von Vektoren. Zum Beispiel Addition, Subtraktion und skalares Produkt. Die Vektoroperation wird meistens für die Berechnung von Signalen, z.B. Faltung verwendet. Ein Programm ist für die Operationen entworfen worden. Mit welchen Methoden kann eine Vektoroperation mit vielen Elementen einfach sein und wie kann die Robustheit des Programms stabil sein? Diese Probleme sollen in dieser Arbeit untersucht und gelöst werden. Hierfür wurde die sichere Programmiersprache SPARK2014 gewählt, um die Robustheit des Programms realisieren zu können. Und das wichtigste Werkzeug, die Vor- und Nachbedingung von SPARK2014, wurde verwendet. Für das Programm ist ein mathematisches Konzept wichtig, es ist die Basis der dynamischen Programmierung. Am Anfang wurden mögliche Vor- und Nachbedingungen geschrieben. Anschließend durch mathematische Kenntnisse ,Notwendig und Hinreichende Bedingung‘ wurden die repräsentativen Vorbedingungen gewählt und die Reihenfolge der Vorgehensweise festgelegt. Danach wurde die Methode durch mathematische Kenntnisse nachgewiesen. Zum Schluss wurden die entworfenen Vor- und Nachbedingungen durch die mathematischen Beispiele getestet.
Resumo:
Das Thema „Robuste Implementierung numerischer Vektoroperationen“ ist Gegenstand dieser Bachelorarbeit. Um numerische Vektoroperationen robust implementieren zu können, muss man einen Code schreiben. Darin sollten nicht nur die Fehler der Vektoroperationen getestet, sondern auch eine Begrenzung der eingegebenen und ausgegebenen Werte entworfen werden. Die erste Aufgabe ist der Entwurf der Vor- und Nachbedingung in der Programmierumgebung Spark. SPARK ist eine formal definierte Computerprogrammiersprache basierend auf der Ada Programmiersprache. Sie ist eine Softwareentwicklungstechnologie, die mit hoher Zuverlässigkeit konzipiert wurde. Allgemein gesagt, die Aufgaben in dieser Arbeit sind folgendermaßen: 1. Entwurf und Programmierung der Vor- und Nachbedingung im Spark2. Entwurf und Programmierung der Testprogramm für alle Vor- und Nachbedingungen. Als Lösungskonzept soll in der Aufgabe eine Bibliothek über den Test der numerischen Vektoroperationen entwickelt werden. Zuerst muss man alle Vektoroperationen kennen. Der nächste Schritt ist die Analysierung der potenziellen Fehler bei den Vektoroperationen. Hier ist eine mathematische Analyse sehr wichtig. Mit Hilfe der mathematischen Grundlagen kann der Plan für den Entwurf der Vor- und Nachbedingung umgesetzt werden. Danach erfolgt der Entwurf der Hilfsfunktionen für die Vor- und Nachbedingung. Mit Hilfe der Verwendung der Hilfsfunktion in der Spezifikationsdatei können Fehler vermieden werden und die Codes bleiben sauber. Am Ende erfolgt die Programmierung aller Vor- und Nachbedingungen für alle Vektoroperationen.
Resumo:
Es gibt immer mehr Anforderungen an mehrsprachige Terminologie, um richtige und identische Übersetzungen von verschiedenen Informationsmaterialien zur Verfügung zu stellen. In diesem Rahmen wurde das Projekt „Terminologiemanagement Schlüsselfaktor für Lokalisierungsprojekte und die Kommunikation international agierender Unternehmen“ im Juli 2014 am Fachbereich Informatik und Sprachen an der Hochschule Anhalt eingerichtet. Terminologieextraktion ist der erste Schritt zur Verwaltung von Terminologie. Sie ist die Voraussetzung für eine richtige Sortierung verschiedener Synonyme eines Begriffs aus den vorhandenen Übersetzungen. Auf der Basis von Terminologieextraktion können die hochschulbezogenen Termini effizienter verwaltet werden. Diese Arbeit ist ein Teil von diesem Projekt, ein Pilotprojekt „Terminologieextraktion“. In diesem Projekt werden die Termkandidaten aus 47 Formularen der Hochschule Anhalt durch verschiedene Methoden extrahiert. Die extrahierten Termkandidaten werden dann in eine MultiTerm Datenbank importiert und bearbeitet. Durch Vergleich der Ergebnisse der extrahierten Termkandidaten werden die Vorteile und Nachteile der Extraktionsmethoden analysiert. Die Probleme und Lösungen bei der Bearbeitung von Termkandidaten werden gleichzeigt vorgestellt.