1000 resultados para Helizitätsmethode, Subtraktionsmethode, Numerische Methoden


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Eine Vektoroperation ist die Berechnung von Vektoren. Zum Beispiel Addition, Subtraktion und skalares Produkt. Die Vektoroperation wird meistens für die Berechnung von Signalen, z.B. Faltung verwendet. Ein Programm ist für die Operationen entworfen worden. Mit welchen Methoden kann eine Vektoroperation mit vielen Elementen einfach sein und wie kann die Robustheit des Programms stabil sein? Diese Probleme sollen in dieser Arbeit untersucht und gelöst werden. Hierfür wurde die sichere Programmiersprache SPARK2014 gewählt, um die Robustheit des Programms realisieren zu können. Und das wichtigste Werkzeug, die Vor- und Nachbedingung von SPARK2014, wurde verwendet. Für das Programm ist ein mathematisches Konzept wichtig, es ist die Basis der dynamischen Programmierung. Am Anfang wurden mögliche Vor- und Nachbedingungen geschrieben. Anschließend durch mathematische Kenntnisse ,Notwendig und Hinreichende Bedingung‘ wurden die repräsentativen Vorbedingungen gewählt und die Reihenfolge der Vorgehensweise festgelegt. Danach wurde die Methode durch mathematische Kenntnisse nachgewiesen. Zum Schluss wurden die entworfenen Vor- und Nachbedingungen durch die mathematischen Beispiele getestet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Das Thema „Robuste Implementierung numerischer Vektoroperationen“ ist Gegenstand dieser Bachelorarbeit. Um numerische Vektoroperationen robust implementieren zu können, muss man einen Code schreiben. Darin sollten nicht nur die Fehler der Vektoroperationen getestet, sondern auch eine Begrenzung der eingegebenen und ausgegebenen Werte entworfen werden. Die erste Aufgabe ist der Entwurf der Vor- und Nachbedingung in der Programmierumgebung Spark. SPARK ist eine formal definierte Computerprogrammiersprache basierend auf der Ada Programmiersprache. Sie ist eine Softwareentwicklungstechnologie, die mit hoher Zuverlässigkeit konzipiert wurde. Allgemein gesagt, die Aufgaben in dieser Arbeit sind folgendermaßen: 1. Entwurf und Programmierung der Vor- und Nachbedingung im Spark2. Entwurf und Programmierung der Testprogramm für alle Vor- und Nachbedingungen. Als Lösungskonzept soll in der Aufgabe eine Bibliothek über den Test der numerischen Vektoroperationen entwickelt werden. Zuerst muss man alle Vektoroperationen kennen. Der nächste Schritt ist die Analysierung der potenziellen Fehler bei den Vektoroperationen. Hier ist eine mathematische Analyse sehr wichtig. Mit Hilfe der mathematischen Grundlagen kann der Plan für den Entwurf der Vor- und Nachbedingung umgesetzt werden. Danach erfolgt der Entwurf der Hilfsfunktionen für die Vor- und Nachbedingung. Mit Hilfe der Verwendung der Hilfsfunktion in der Spezifikationsdatei können Fehler vermieden werden und die Codes bleiben sauber. Am Ende erfolgt die Programmierung aller Vor- und Nachbedingungen für alle Vektoroperationen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Es gibt immer mehr Anforderungen an mehrsprachige Terminologie, um richtige und identische Übersetzungen von verschiedenen Informationsmaterialien zur Verfügung zu stellen. In diesem Rahmen wurde das Projekt „Terminologiemanagement Schlüsselfaktor für Lokalisierungsprojekte und die Kommunikation international agierender Unternehmen“ im Juli 2014 am Fachbereich Informatik und Sprachen an der Hochschule Anhalt eingerichtet. Terminologieextraktion ist der erste Schritt zur Verwaltung von Terminologie. Sie ist die Voraussetzung für eine richtige Sortierung verschiedener Synonyme eines Begriffs aus den vorhandenen Übersetzungen. Auf der Basis von Terminologieextraktion können die hochschulbezogenen Termini effizienter verwaltet werden. Diese Arbeit ist ein Teil von diesem Projekt, ein Pilotprojekt „Terminologieextraktion“. In diesem Projekt werden die Termkandidaten aus 47 Formularen der Hochschule Anhalt durch verschiedene Methoden extrahiert. Die extrahierten Termkandidaten werden dann in eine MultiTerm Datenbank importiert und bearbeitet. Durch Vergleich der Ergebnisse der extrahierten Termkandidaten werden die Vorteile und Nachteile der Extraktionsmethoden analysiert. Die Probleme und Lösungen bei der Bearbeitung von Termkandidaten werden gleichzeigt vorgestellt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

PassPork ist eine neuartige Methode zum Nachweis von pathogenen Keimen in Schweinefleisch. Oftmals sind mikrobielle Nachweismethoden langwierig, kostenintensiv oder zu komplex, aus diesem Grund haben sich europäische Forschungslabore zusammengeschlossen und an einer kostengünstigen, einfachen, schnellen und sensitiven Nachweismethode gearbeitet. Die PassPork-Methode arbeitet nach dem Lateral-Flow-Prinzip und somit besteht der Test aus einem LFD, in welches die Probe eingeführt wird und einem Reader, der die Proben auswerten kann. Alle Schritte von der Probenentnahme am Schlachthof, über die Probenpräparation im Labor und der Probenauswertung sollen validiert werden. Die Validierung erfolgt in drei Testreihen. Hierfür wird die PassPork-Methode mit klassischen Methoden verglichen. Ein weiterer Bestandteil der Arbeit ist die Bestimmung des Detektionslimits, welches mit Hilfe von Glycerinkulturen ermittelt wird. Die Auswertung der Ergebnisse zeigt, dass die Methode derzeit noch zu unausgereift ist und Potential zur Optimierung besitzt. Die Methode kann in diesem Augenblick keine bestehenden, diagnostischen Schnellnachweismethoden ersetzten.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Um den Aufwand für die Beerenlagerung zu senken und die Erzeugnissqualität zu verbessern, wurde eine neue Technologie der Beerenlagerung durch Intensivierung der Vorkühlung ausgearbeitet. Das erlaubt, den Zeitraum für die Bereitstellung von frischen Früchten für die menschliche Ernährung zu verlängern.Als methodische Forschungsgrundlagen dienten Systemeinstellung und mathematisches und physisches Modellieren. Im Prozess der theoretischen Forschungen wurden Methoden der mathematischen Analyse, Theorien komplizierter Systeme, Wärmemasseübertragung und Methoden von mathematischen und Computermodellen gewählt. Die experimentellen Forschungen wurden in Übereinstimmung mit den üblichen Planungsmethoden des Multifaktorenexperiments durchgeführt. Dabei wurden die gültigen GOST (staatliche russische Standards) und OST (Zweigstandards), eigene Methoden und Laborforschungen, standardisierte Kontrollmessgeräte und Automaten sowie Computertechnik und die eigene Laboranlage angewendet.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die vorliegende Arbeit beschäftigt sich mit der Untersuchung von molekularbiologischen Methoden zur Identifizierung von Mikroorganismen, die in den Proben aus der Versäuerungsstufe von zweistufigen Biogasanlagen enthalten sind. Der Zellaufschluss und die DNA-Isolierung aus der Biomasse werden optimiert. Die Untersuchung der zu verschiedenen Zeitpunkten gelieferten Proben erfolgt mit folgenden Methoden: Bestimmung der Anzahl aerober Keime, Zellaufschluss und DNA-Isolierung, Kolonie-Polymerasekettenreaktion mit universellen Bakterienprimern und dem Anlegen einer Klonbibliothek. Durch die Optimierung der Methoden sollen möglichst viele Arten von Mikroorganismen identifiziert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die konservative Behandlung von Skoliosen mit TLSO ist noch immer umstritten. Im Rahmen dieser Bachelorarbeit wird daher ein Konzept zur mobilen Aktivitätsmessung in der TLSO-Versorgung entwickelt, welches zur Klärung dieser Kontroverse mit beitragen könnte. Ziel soll die Messung von täglichen Aktivitäten wie Laufen, Stehen und Rennen mit einer möglichst hohen Erkennungsgenauigkeit der einzelnen Aktivitäten sein. Die Sensorkombination soll dabei in oder an der Orthese angebracht sein und von dem Patienten während der vorgeschriebenen Tragezeit getragen werden. Um einen Lösungsansatz für das Problem zu generieren, wird auf der Grundlage von Pahl und Beitz eine Anforderungsliste und die Beschreibung eines Zielsystems erstellt und gewählte Lösungskombinationen bewertet. Der Vergleich gängiger Methoden zur Aktivitätsmessung wird zeigen, dass Methoden wie Druck, EMG und EKG zur Aktivitätsmessung in der TLSO-Versorgung nicht geeignet sind, Temperatur und Gyroskope als Ergänzung eingesetzt werden können und Akzelerometer am Besten zur Aktivitätsmessung geeignet sind. Abhängig ist ihre Leistung allerdings stark von den zur Auswertung genutzten Algorithmen. Mit Fuzzy C und schwellwertbasierten Algorithmen könnten Erkennungsgenauigkeiten von mehr als 98% erreicht werden. Diese Ergebnisse basieren auf Angaben aus einschlägiger Literarug und müssen durch praktische Tests untermauert werden.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Zielstellung dieser Arbeit war, eine wirtschaftliche Bewertung der vorhandenen Wärmeerzeugungsanlage des Referenzobjektes Hardenbergstraße 31 gegenüber modernen und energieeffizienten Anlagen vorzunehmen. Des Weiteren wurden die Abrechnungsvarianten der anfallenden Verbräuche wie Gas, Strom und Wasser untersucht. Bei der Wärmeversorgung wurde verglichen, ob der Einsatz eines Blockheizkraftwerkes, einer Gas-Brennwert-Anlage, einer Wärmepumpe oder Umrüstung auf die Fernwärmeversorgung wirtschaftlicher zu beurteilen ist. Hinsichtlich der Abrechnungsvarianten wurden einelne Methoden soweit untersucht und bewertet, dass sich hieraus entsprechende Zimmerpreise ermitteln lassen.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die ernährungsphysiologische Notwendigkeit der Lebensmittel wird zunehmend von dem Wunsch der Verbraucher und Verbraucherinnen nach "Genuss" abgelöst. Der Erfolg eines Produktes ist daher unter anderem maßgeblich von seinen sensorischen Eigenschaften abhängig. Das Unternehmen Unilever Deutschland Produktions GmbH und Co. OHG am Standort Pratau produziert Margarine- und Streichfettprodukte. Die Optimierung und/oder Entwicklung neuer Produkte bezugnehmend auf die Bedürfnisse der Verbraucher und Verbraucherinnen ist auch in diesem Unternehmen ein permanentes Thema. Da die Lebensmittelsensorik einen wesentlichen Teil zu diesem Thema beitragen kann, ist das Ziel der hier vorliegenden Arbeit die Entwicklung eines Prüfschemas für die sensorische Standardisierung von Margarine und Streichfetten für das Unternehmen Unilever Deutschland Produktions GmbH und Co. OHG. Als Anregung für die Entwicklung des sensorischen Prüfschemas dient unter anderem das vorläufige Prüfschema der Deutschen Landwirtschafts-Gesellschaft e.V., die Anmerkungen der Abteilung für Qualitätssicherung diesbezüglich und das bisherige sensorische Prüfschema des Standortes Pratau. Während des Erstellungsverlaufes durchläuft das Prüfschema verschiedene Stufen. Der Fokus liegt zunächst auf der optischen Gestaltung. Im Anschluss daran werden die produkttypischen Attribute der definierten Prüfkriterien hinzugefügt, geprüft und optimiert. Das erstellte sensorische Prüfschema zählt zu den analytischen Prüfmethoden und kann den Deskriptiven Prüfungen mit integrierter Bewertung zugeordnet werden. Sein unternehmensinterner Einsatz bezieht sich ausschließlich auf den Bereich Qualitätssicherung bzw. Sensorik. In der Diskussion setzt man sich sowohl mit dem Methoden- als auch mit dem Ergebnisteil kritisch auseinander. ...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Die Differenzierung von Tinten erweist sich oft als wichtig in der Echtheitsprüfung von Dokumenten. Sie wird üblicherweise durch optische Vergleiche und Dünnschicht Chromatographie durchgeführt (TLC). Laser Desorption Ionisation Massenspektrometrie (LDI-MS) ist auch als nützlich gefunden worden und besonders leistungsfähig um Farbstoffe aus Kugelschreibertinte zu analysieren. Diese analytische Methode ist mit Hochleistungs Dünnschichtchromatografie TLC (HPTLC) verglichen worden, mit dem Ziel deren Tinten-Differenzierungskapazität zu testen. Tinteneinträge von 31 blauen Kugelschreibern sind analysiert worden und gemäß deren Farbstoffzusammensetzung klassifiziert worden. Typische Farbstoffe sind durch beide Methoden identifiziert worden und mehrere sind in vielen Tinten-Zusammensetzungen gefunden worden. LDI-MS ist leistungsfähiger als HPTLC um Tinten zu differenzieren, weil es Informationen über Farbstoffstrukturen (Molekular Gewicht) enthält und eine präzise relative Quantifizierung (Signalfläche) erlaubt. Dazu ist für LDI-MS Proben die Vorbereitung minimal und die Analysezeit kurz im Vergleich zu HPTLC mehr komplexen Schritte, wie Extraktionen, Spots Applikationen und Lösungsmittelelution. Allerdings sind mit LDI-MS zwei Analysen nötig um kationische und anionische Farbstoffe zu analysieren, während mit HPTLC nur eine Analyse nötig ist.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

One of the key problems in conducting surveys is convincing people to participate.¦However, it is often difficult or impossible to determine why people refuse. Panel surveys¦provide information from previous waves that can offer valuable clues as to why people¦refuse to participate. If we are able to anticipate the reasons for refusal, then we¦may be able to take appropriate measures to encourage potential respondents to participate¦in the survey. For example, special training could be provided for interviewers¦on how to convince potential participants to participate.¦This study examines different influences, as determined from the previous wave,¦on refusal reasons that were given by the respondents in the subsequent wave of the¦telephone Swiss Household Panel. These influences include socio-demography, social¦inclusion, answer quality, and interviewer assessment of question understanding and¦of future participation. Generally, coefficients are similar across reasons, and¦between-respondents effects rather than within-respondents effects are significant.¦While 'No interest' reasons are easier to predict, the other reasons are more situational. Survey-specific issues are able to distinguish¦different reasons to some extent.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper we propose a stabilized conforming finite volume element method for the Stokes equations. On stating the convergence of the method, optimal a priori error estimates in different norms are obtained by establishing the adequate connection between the finite volume and stabilized finite element formulations. A superconvergence result is also derived by using a postprocessing projection method. In particular, the stabilization of the continuous lowest equal order pair finite volume element discretization is achieved by enriching the velocity space with local functions that do not necessarily vanish on the element boundaries. Finally, some numerical experiments that confirm the predicted behavior of the method are provided.