92 resultados para Funktionalität
Resumo:
Ziel dieser Arbeit ist die Untersuchung der Einflüsse von Blister-Design und Folienqualität auf die Funktionalität von Blisterverpackungen. Hierzu werden analytische Methoden mittels Interferometrie, IR-Spektroskopie, Betarückstreuverfahren, Wirbelstromverfahren und Impedanzspektroskopie entwickelt, die zur quantitativen Bestimmung von Heißsiegellacken und Laminatbeschichtungen von Aluminium-Blisterfolien geeignet sind. Ein Vergleich der Methoden zeigt, dass sich das Betarückstreuverfahren, die Interferometrie und IR-Messungen für die Heißsiegellackbestimmung, die Interferometrie und das Wirbelstromverfahren für die Bestimmung von Kunststofflaminaten eignen.rnIm zweiten Abschnitt der Arbeit werden Einflüsse des Heißsiegellack-Flächengewichtes von Deckfolien auf die Qualität von Blisterverpackungen untersucht. Mit Zunahme des Flächengewichtes zeigt sich eine Erhöhung der Siegelnahtfestigkeit aber auch der Wasserdampfdurchlässigkeit von Blistern. Die untersuchten Heißsiegellacke zeigen Permeationskoeffizienten vergleichbar mit Polyvinylchlorid. In Untersuchungen zur Siegelprozessvalidität zeigt das Heißsiegellack-Flächengewicht nur geringfügige Auswirkungen auf diese. rnIm dritten Abschnitt der Arbeit werden Einflüsse des Blister-Designs auf die Benutzerfreundlichkeit von Blisterverpackungen durch eine Handlingstudie untersucht. Variationen der Öffnungskräfte von Durchdrück-Blistern wirken sich deutlich auf die Bewertungen der Blister durch die Probanden aus. Während die meisten Probanden alle getesteten Durchdrück-Blister innerhalb der Testdauer von 4 Minuten öffnen können (>84%), treten beim Peel-Blister und Peel-off-push-through-Blister deutlich mehr Handlingprobleme auf. Die Handlingprobleme korrelieren mit dem Alter, der Lebenssituation, der gesundheitlichen Verfassung und der Sehfähigkeit der Probanden. rn
Resumo:
Introduction: Beim Multiple-Object-Tracking müssen mehrere, sich bewegende Zielobjekte visuell verfolgt werden. Dabei scheint es vorteilhaft zu sein, den Blick zwischen den Zielobjekten zu verankern, um Bewegungsinformationen peripher wahrzunehmen (Fehd & Seiffert, 2010). Nach Prüfung dieser Annahme (Experiment 1) wurde getestet, wie gut und schnell auf Bewegungs- und Formveränderungen der Zielobjekte reagiert werden kann (Experiment 2), um die Funktionalität der peripheren Wahrnehmung zu überprüfen. Methods: 14 Teilnehmer hatten die Aufgabe, zum Ende eines Einzelversuchs 4 aus 10 Vierecken wiederzuerkennen, die sich linear für 6 s in einem projizierten Quadrat bewegten. Dabei wurden 3 Geschwindigkeiten (6, 9 und 12°/s) in 9 Blöcken à 15 Versuchen präsentiert, um die Ergebnisse von Fehd und Seiffert (2010) zu replizieren. In Experiment 2 sollten Teilnehmer auf das Anhalten eines Targets oder dessen Formveränderung zur Raute (Manipulation: 0.5 s) mit Knopfdruck reagieren, bei ausbleibender Veränderung hingegen die 4 Zielobjekte wiedererkennen (3 Bedingungen in 10 Blöcken à 12 Versuchen). Durch die Bestimmung von Sakkadenlatenzen (definiert als Zeitraum zwischen Beginn der Objektveränderung und Sakkadenbeginn auf das Objekt) kann bestimmt werden, ob die Veränderung bereits peripher wahrgenommen wurde. Unter anderem aufgrund der Sensitivität der Netzhaut gegenüber Bewegungen wurde erwartet, dass Bewegungsveränderungen häufiger und schneller erkannt werden und dass häufiger bereits reagiert werden kann, bevor der Blick auf dem veränderten Zielobjekt ist. Results: Experiment 1 ergab einen signifikanten Haupteffekt für Geschwindigkeit, F(2,26) = 62.66, p < .01, ηp2 = .83, mit höchsten Richtigkeiten bei 6°/s (58%). Ein Haupteffekt für Blickort, F(2,26) = 76.40, p < .01, ηp2 = .85, zeigt, dass der Blick unabhängig von der Geschwindigkeit länger auf dem Centroid war als auf Targets und Distraktoren. Aufgrund der höchsten Richtigkeiten bei 6°/s wurde diese Geschwindigkeit in Experiment 2 eingesetzt und festgestellt, dass Bewegungsveränderungen häufiger erkannt werden (83 %) als Formveränderungen (59 %), F(1,10) = 17.20, p < .01, ηp2 = .63. Unterschiede in Sakkadenlatenzen, F(1,10) = 6.73, p = .03, ηp2 = .40, deuten auf eine periphere Wahrnehmung der Bewegungsveränderungen hin. Experiment 3 wird zeigen, ob Sakkaden das Monitoring stören. Discussion/Conclusion: Die periphere Wahrnehmung scheint immer dann funktional zu sein, wenn mehrere, für eine Aufgabe relevante Objekte gleichzeitig verfolgt werden müssen und wenn Veränderungen, besonders der Bewegung, schnell erkannt werden müssen. Weitere Untersuchungen sollen zeigen, ob diese Funktionalität der peripheren Wahrnehmung auch im Sport (z.B. beim gleichzeitigen Verfolgen mehrerer Gegenspieler) erkannt werden kann. References: Fehd, H. M. & Seiffert, A. E. (2010). Looking at the center of the targets helps multiple object tracking. Journal of Vision, 10, 1–13.
Resumo:
Schlüsselwörter: Multiple-Object-Tracking, Sakkadenlatenz, Erkennungsleistung Einleitung Beim Multiple-Object-Tracking müssen mehrere, sich bewegende Zielobjekte visuell ver-folgt werden. Dabei scheint es vorteilhaft zu sein, den Blick zwischen den Zielobjekten zu verankern, um Bewegungsinformationen peripher wahrzunehmen (Fehd & Seiffert, 2010). Nach Prüfung dieser Annahme (Experiment 1) wurde getestet, wie gut und schnell auf Bewegungs- und Formveränderungen der Zielobjekte reagiert werden kann (Experiment 2), um die Funktionalität der peripheren Wahrnehmung zu überprüfen Methode 14 Teilnehmer hatten die Aufgabe, zum Ende eines Einzelversuchs 4 aus 10 Vierecken wiederzuerkennen, die sich linear für 6 s in einem projizierten Quadrat bewegten. Dabei wurden 3 Geschwindigkeiten (6, 9 und 12°/s) in 9 Blöcken à 15 Versuchen präsentiert, um die Ergebnisse von Fehd und Seiffert (2010) zu replizieren. In Experiment 2 sollten Teilnehmer auf das Anhalten eines Targets oder dessen Formveränderung zur Raute (Manipulation: 0.5 s) mit Knopfdruck reagieren, bei ausbleibender Veränderung hinge-gen die 4 Zielobjekte wiedererkennen (3 Bedingungen in 10 Blöcken à 12 Versuchen). Erwartet wurde, dass Bewegungsveränderungen häufiger und schneller erkannt werden. Ergebnisse Experiment 1 ergab einen signifikanten Haupteffekt für Geschwindigkeit, F(2,26) = 62.66, p < .01, ηp2 = .83, mit höchsten Richtigkeiten bei 6°/s (58%). Ein Haupteffekt für Blickort, F(2,26) = 76.40, p < .01, ηp2 = .85, zeigt, dass der Blick unabhängig von der Geschwindig-keit länger auf dem Centroid war als auf Targets und Distraktoren. Aufgrund der höchs-ten Richtigkeiten bei 6°/s wurde diese Geschwindigkeit in Experiment 2 eingesetzt und festgestellt, dass Bewegungsveränderungen häufiger erkannt werden (83 %) als Form-veränderungen (59 %), F(1,10) = 17.20, p < .01, ηp2 = .63. Unterschiede in Sakkadenla-tenzen, F(1,10) = 6.73, p = .03, ηp2 = .40, deuten auf eine periphere Wahrnehmung der Bewegungsveränderungen hin. Experiment 3 wird zeigen, ob Sakkaden das Monitoring stören. Diskussion Die periphere Wahrnehmung scheint immer dann funktional zu sein, wenn mehrere, für eine Aufgabe relevante Objekte gleichzeitig verfolgt werden müssen und wenn Verände-rungen, besonders der Bewegung, schnell erkannt werden müssen. Weitere Untersu-chungen sollen zeigen, ob diese Funktionalität der peripheren Wahrnehmung auch im Sport (z.B. beim gleichzeitigen Verfolgen mehrerer Gegenspieler) erkannt werden kann. Literatur Fehd, H. M. & Seiffert, A. E. (2010). Looking at the center of the targets helps multiple object tracking. Journal of Vision, 10, 1–13.
Desarrollo de software para la realización de ensayos dinámicos de mecanismos de cinemática paralela
Resumo:
[ES]El presente Trabajo de Fin de Grado tiene como objetivo contribuir al desarrollo de un proyecto de investigación mediante la programación y control del movimiento de mecanismos de cinemática paralela para la realización de ensayos dinámicos. Dicho proyecto está enmarcado dentro de una línea de investigación del grupo de investigación CompMech de la UPV-‐EHU que gira en torno al desarrollo y estudio de este tipo de mecanismos. Esto es; este trabajo, más allá de la utilidad que pudiera tener por sí mismo, está pensado para formar parte de un proyecto de mayor envergadura, para cuyo éxito será imprescindible la colaboración con otros investigadores y la integración de este trabajo con los realizados por ellos. Consiste en la creación de un software para el control y movimiento de mecanismos, generando vibraciones para la realización de ensayos dinámicos. Para ello, se programarán sobre la plataforma LabVIEW la interfaz de usuario y el motor de cálculo. Una vez se compruebe que el programa funciona correctamente, se integrará dentro de un programa principal, un control articular que será el encargado de comunicarse con la máquina. Posteriormente, se procederá a la realización de ensayos experimentales sobre los propios robots, en taller. Se tomarán medidas mediante acelerómetros y otros dispositivos, determinando las medidas más adecuadas para su correcta validación. Finalmente, se generalizará el trabajo realizado para posibilitar su empleo futuro en diferentes mecanismos
Resumo:
In der vorliegenden Arbeit 1 wird ein neues, erweiter- und konfigurierbares Visualisierungsverfahren zur Interaktion mit komplex strukturierten Datenobjekten vorgestellt. Die Erweiterbarkeit bezieht sich dabei auf die vom Verfahren einsetzbaren Techniken der Visualisierung (Visualisierungsfunktionen) und auf die in das Verfahren integrierte Interaktion. Die mit dem Verfahren generierbaren Repräsentationen sind besonders zum Browsen in den Objekten und zum Editieren der Objekte geeignet, die typischerweise in objekt-relationalen Datenbanken gespeichert werden. Die generierten Repräsentationen können modulartig in vorhandene graphische Benutzerschnittstellen integriert werden oder als vollständige graphische Benutzerschnittstelle einer Anwendung eingesetzt werden. Modularität und Orthogonalität, also die sinnvolle Aufteilung in Funktionseinheiten und die Möglichkeit, Methoden einer Komponente auf andere Komponenten anzuwenden, werden als Mittel eingesetzt, mit weniger Komponenten mehr Funktionalität zu erreichen. Für den Teilaspekt der Benutzerschnittstelle wurde dies durch Visualisierungsvorschriften für Datenobjekte (Relationen, Tabellen) vorgeschlagen, indem ein Baum aus der Strukturdefinition (Schema) abgeleitet und als persistentes (Meta-) Datenobjekt in der Datenbank gespeichert wird. Sie werden kurz "Visualisierungen" genannt. Wie gezeigt werden kann, sind sechs Meta-Objekte die notwendige und hinreichende Anzahl und Ausprägung von Schemata und Visualisierungen zur Definition und visuellen Repräsentation beliebiger Anwendungs-Objekte (Schemata und durch sie definierte Tabellen), inklusive ihrer eigenen Schemata und Visualisierungen. Der Einsatz der Selbstreferenzierung mit Meta-Objekten hat zu mehr Sicherheit und Kompaktheit ohne nenneswerte Laufzeiteinbußen geführt.
Resumo:
Die Dissertation befasst sich mit der Einführung komplexer Softwaresysteme, die, bestehend aus einer Kombination aus parametrisierter Standardsoftware gepaart mit Wettbewerbsvorteil sichernden Individualsoftwarekomponenten, keine Software-Engineering-Projekte im klassischen Sinn mehr darstellen, sondern einer strategieorientierten Gestaltung von Geschäftsprozessen und deren Implementierung in Softwaresystemen bedürfen. Die Problemstellung einer adäquaten Abwägung zwischen TCO-optimierender Einführung und einer gleichzeitigen vollständigen Unterstützung der kritischen Erfolgsfaktoren des Unternehmens ist hierbei von besonderer Bedeutung. Der Einsatz integrierter betriebswirtschaftlicher Standardsoftware, mit den Möglichkeiten einer TCO-Senkung, jedoch ebenfalls der Gefahr eines Verlustes von Alleinstellungsmerkmalen am Markt durch Vereinheitlichungstendenzen, stellt ein in Einführungsprojekten wesentliches zu lösendes Problem dar, um Suboptima zu vermeiden. Die Verwendung von Vorgehensmodellen, die sich oftmals an klassischen Softwareentwicklungsprojekten orientieren oder vereinfachte Phasenmodelle für das Projektmanagement darstellen, bedingt eine fehlende Situationsadäquanz in den Detailsituationen der Teilprojekte eines komplexen Einführungsprojektes. Das in dieser Arbeit entwickelte generische Vorgehensmodell zur strategieorientierten und partizipativen Einführung komplexer Softwaresysteme im betriebswirtschaftlichen Anwendungsbereich macht - aufgrund der besonders herausgearbeiteten Ansätze zu einer strategieorientierten Einführung, respektive Entwicklung derartiger Systeme sowie aufgrund der situationsadäquaten Vorgehensstrategien im Rahmen der Teilprojektorganisation � ein Softwareeinführungsprojekt zu einem Wettbewerbsfaktor stärkenden, strategischen Element im Unternehmen. Die in der Dissertation diskutierten Überlegungen lassen eine Vorgehensweise präferieren, die eine enge Verschmelzung des Projektes zur Organisationsoptimierung mit dem Softwareimplementierungsprozess impliziert. Eine Priorisierung der Geschäftsprozesse mit dem Ziel, zum einen bei Prozessen mit hoher wettbewerbsseitiger Priorität ein organisatorisches Suboptimum zu vermeiden und zum anderen trotzdem den organisatorischen Gestaltungs- und den Systemimplementierungsprozess schnell und ressourcenschonend durchzuführen, ist ein wesentliches Ergebnis der Ausarbeitungen. Zusätzlich führt die Ausgrenzung weiterer Prozesse vom Einführungsvorgang zunächst zu einem Produktivsystem, welches das Unternehmen in den wesentlichen Punkten abdeckt, das aber ebenso in späteren Projektschritten zu einem System erweitert werden kann, welches eine umfassende Funktionalität besitzt. Hieraus ergeben sich Möglichkeiten, strategischen Anforderungen an ein modernes Informationssystem, das die kritischen Erfolgsfaktoren eines Unternehmens konsequent unterstützen muss, gerecht zu werden und gleichzeitig ein so weit als möglich ressourcenschonendes, weil die Kostenreduktionsaspekte einer Standardlösung nutzend, Projekt durchzuführen. Ein weiterer wesentlicher Aspekt ist die situationsadäquate Modellinstanziierung, also die projektspezifische Anpassung des Vorgehensmodells sowie die situationsadäquate Wahl der Vorgehensweisen in Teilprojekten und dadurch Nutzung der Vorteile der verschiedenen Vorgehensstrategien beim konkreten Projektmanagement. Der Notwendigkeit der Entwicklung einer Projektorganisation für prototypingorientiertes Vorgehen wird in diesem Zusammenhang ebenfalls Rechnung getragen. Die Notwendigkeit der Unternehmen, sich einerseits mit starken Differenzierungspotenzialen am Markt hervorzuheben und andererseits bei ständig sinkenden Margen einer Kostenoptimierung nachzukommen, lässt auch in Zukunft das entwickelte Modell als erfolgreich erscheinen. Hinzu kommt die Tendenz zu Best-Of-Breed-Ansätzen und komponentenbasierten Systemen im Rahmen der Softwareauswahl, die eine ausgesprochen differenzierte Vorgehensweise in Projekten verstärkt notwendig machen wird. Durch die in das entwickelte Modell integrierten Prototyping-Ansätze wird der auch in Zukunft an Bedeutung gewinnenden Notwendigkeit der Anwenderintegration Rechnung getragen.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
The process of developing software that takes advantage of multiple processors is commonly referred to as parallel programming. For various reasons, this process is much harder than the sequential case. For decades, parallel programming has been a problem for a small niche only: engineers working on parallelizing mostly numerical applications in High Performance Computing. This has changed with the advent of multi-core processors in mainstream computer architectures. Parallel programming in our days becomes a problem for a much larger group of developers. The main objective of this thesis was to find ways to make parallel programming easier for them. Different aims were identified in order to reach the objective: research the state of the art of parallel programming today, improve the education of software developers about the topic, and provide programmers with powerful abstractions to make their work easier. To reach these aims, several key steps were taken. To start with, a survey was conducted among parallel programmers to find out about the state of the art. More than 250 people participated, yielding results about the parallel programming systems and languages in use, as well as about common problems with these systems. Furthermore, a study was conducted in university classes on parallel programming. It resulted in a list of frequently made mistakes that were analyzed and used to create a programmers' checklist to avoid them in the future. For programmers' education, an online resource was setup to collect experiences and knowledge in the field of parallel programming - called the Parawiki. Another key step in this direction was the creation of the Thinking Parallel weblog, where more than 50.000 readers to date have read essays on the topic. For the third aim (powerful abstractions), it was decided to concentrate on one parallel programming system: OpenMP. Its ease of use and high level of abstraction were the most important reasons for this decision. Two different research directions were pursued. The first one resulted in a parallel library called AthenaMP. It contains so-called generic components, derived from design patterns for parallel programming. These include functionality to enhance the locks provided by OpenMP, to perform operations on large amounts of data (data-parallel programming), and to enable the implementation of irregular algorithms using task pools. AthenaMP itself serves a triple role: the components are well-documented and can be used directly in programs, it enables developers to study the source code and learn from it, and it is possible for compiler writers to use it as a testing ground for their OpenMP compilers. The second research direction was targeted at changing the OpenMP specification to make the system more powerful. The main contributions here were a proposal to enable thread-cancellation and a proposal to avoid busy waiting. Both were implemented in a research compiler, shown to be useful in example applications, and proposed to the OpenMP Language Committee.
Resumo:
Land use is a crucial link between human activities and the natural environment and one of the main driving forces of global environmental change. Large parts of the terrestrial land surface are used for agriculture, forestry, settlements and infrastructure. Given the importance of land use, it is essential to understand the multitude of influential factors and resulting land use patterns. An essential methodology to study and quantify such interactions is provided by the adoption of land-use models. By the application of land-use models, it is possible to analyze the complex structure of linkages and feedbacks and to also determine the relevance of driving forces. Modeling land use and land use changes has a long-term tradition. In particular on the regional scale, a variety of models for different regions and research questions has been created. Modeling capabilities grow with steady advances in computer technology, which on the one hand are driven by increasing computing power on the other hand by new methods in software development, e.g. object- and component-oriented architectures. In this thesis, SITE (Simulation of Terrestrial Environments), a novel framework for integrated regional sland-use modeling, will be introduced and discussed. Particular features of SITE are the notably extended capability to integrate models and the strict separation of application and implementation. These features enable efficient development, test and usage of integrated land-use models. On its system side, SITE provides generic data structures (grid, grid cells, attributes etc.) and takes over the responsibility for their administration. By means of a scripting language (Python) that has been extended by language features specific for land-use modeling, these data structures can be utilized and manipulated by modeling applications. The scripting language interpreter is embedded in SITE. The integration of sub models can be achieved via the scripting language or by usage of a generic interface provided by SITE. Furthermore, functionalities important for land-use modeling like model calibration, model tests and analysis support of simulation results have been integrated into the generic framework. During the implementation of SITE, specific emphasis was laid on expandability, maintainability and usability. Along with the modeling framework a land use model for the analysis of the stability of tropical rainforest margins was developed in the context of the collaborative research project STORMA (SFB 552). In a research area in Central Sulawesi, Indonesia, socio-environmental impacts of land-use changes were examined. SITE was used to simulate land-use dynamics in the historical period of 1981 to 2002. Analogous to that, a scenario that did not consider migration in the population dynamics, was analyzed. For the calculation of crop yields and trace gas emissions, the DAYCENT agro-ecosystem model was integrated. In this case study, it could be shown that land-use changes in the Indonesian research area could mainly be characterized by the expansion of agricultural areas at the expense of natural forest. For this reason, the situation had to be interpreted as unsustainable even though increased agricultural use implied economic improvements and higher farmers' incomes. Due to the importance of model calibration, it was explicitly addressed in the SITE architecture through the introduction of a specific component. The calibration functionality can be used by all SITE applications and enables largely automated model calibration. Calibration in SITE is understood as a process that finds an optimal or at least adequate solution for a set of arbitrarily selectable model parameters with respect to an objective function. In SITE, an objective function typically is a map comparison algorithm capable of comparing a simulation result to a reference map. Several map optimization and map comparison methodologies are available and can be combined. The STORMA land-use model was calibrated using a genetic algorithm for optimization and the figure of merit map comparison measure as objective function. The time period for the calibration ranged from 1981 to 2002. For this period, respective reference land-use maps were compiled. It could be shown, that an efficient automated model calibration with SITE is possible. Nevertheless, the selection of the calibration parameters required detailed knowledge about the underlying land-use model and cannot be automated. In another case study decreases in crop yields and resulting losses in income from coffee cultivation were analyzed and quantified under the assumption of four different deforestation scenarios. For this task, an empirical model, describing the dependence of bee pollination and resulting coffee fruit set from the distance to the closest natural forest, was integrated. Land-use simulations showed, that depending on the magnitude and location of ongoing forest conversion, pollination services are expected to decline continuously. This results in a reduction of coffee yields of up to 18% and a loss of net revenues per hectare of up to 14%. However, the study also showed that ecological and economic values can be preserved if patches of natural vegetation are conservated in the agricultural landscape. -----------------------------------------------------------------------
Resumo:
ZUSAMMENFASSUNG: Das Phosphorylierungsmuster eines Proteins ist kein statischer Zustand, sondern vielmehr ein dynamischer Status, den es in der modernen funktionellen (Phospho-) Proteomik und Analytik abzubilden gilt. Klassischerweise erfolgt der Nachweis der Proteinphosphorylierung auf Peptid-Ebene mittels MS/MS Sequenzierung. Diese Standardmethode der shotgun Phosphoproteomanalytik vernachlässigt jedoch wegen den in LC MS/MS Analysen oftmals schwer detektierbaren Phosphopeptiden gerade den variablen und oftmals nur geringen Phosphorylierungsgrad vieler Phosphorylierungsstellen (P-Stellen). Mittels phosphospezifischer Anreicherungsstrategien und MS/MS Sequenzierung konnten an der Modellkinase PKA-Cα nach rekombinanter Expression in E. coli insgesamt acht P-Stellen identifiziert werden. Der Phosphorylierungsgrad wurde in Kooperation mit Dr. J. Seidler über quantitative Signalintensitätsmessungen bestimmt und zeigte eine nahezu vollständige Phosphorylierung von pS10, pS139, pT197 und pS338, während der Phosphorylierungsgrad für pS34, pS53, pS65 und pS259 zwischen <5 und 45 % variierte. Neben der Quantifizierung der P-Stellen wurde auch das Auftreten und die Verteilung definierter Phosphoformen der PKA-Cα untersucht und deren Abhängigkeit von der primären Aminosäureabfolge, dem Auftreten von zusätzlichen Modifikationen sowie den gewählten Expressions- und Reinigungsbedingungen aufgezeigt. Endogene, aus Säugergewebe isolierte PKA-Cα wies nur eine einzige Phosphoform mit den P-Stellen pT197 und pS338 auf. Auch in vitro autophosphorylierte rekombinante PKA-Cα, die zuvor dephosphoryliert worden war, wies eine zweifach modifizierte Phosphoform auf. Im Vergleich zum endogenen Protein ließ sich dieses Protein an S10 und S338 exzessiv phosphorylieren, wohingegen an T197 keine Autophosphorylierung nachzuweisen war. Das Ausbleiben weiterer Phosphorylierungen stellt in Frage, ob die Hyperphosphorylierung in E. coli ausschließlich auf Autophosphorylierungsprozessen beruht, was anhand einer nicht phosphorylierten, katalytisch inaktiven Variante von PKA-Cα (PKA-Cα K72H) vermutet wurde. Im Hinblick auf die funktionellen P-Stellen pT197 und pS338 erfordert diese Entdeckung sowie der unabhängige Nachweis, dass zellfrei exprimierte PKA-Cα nur an S338 phosphoryliert ist, eine Modifizierung des sequenziellen Vorhersagemodells, wonach die Phosphorylierung an T197 eine zwingende Voraussetzung für die nachfolgende Phosphorylierung an S338 ist. Ferner konnte über phosphomimetische Mutagenese die Funktionalität der Phosphorylierung an S53 innerhalb der glycinreichen Schleife der PKA-Cα und somit ein potenzieller Weg zur Regulation der enzymatischen Aktivität gezeigt werden. Ein weiterer möglicher upstream Regulator von PKA-Cα ist die Proteinphosphatase 5, die in der Lage war, die bislang als phosphatasestabil beschriebene P Stelle pT197 in vitro zu dephosphorylieren. Die vorliegende Arbeit zeigt, dass der Phosphorylierungszustand eines Proteins von zahlreichen internen und externen Faktoren abhängt – eine Tatsache, die gerade für rekombinante Proteine, insbesondere enzymatisch aktive Kinasen, oft vernachlässigt wurde. Daher müssen auch in der shotgun Phosphoproteomanalytik P-Stellen nicht mehr nur identifiziert und quantifiziert werden, sondern die resultierenden Proteinphosphoformen differenziert auch in ihrem physiologischen Kontext beschrieben werden.
Resumo:
Der Einsatz der Particle Image Velocimetry (PIV) zur Analyse selbsterregter Strömungsphänomene und das dafür notwendige Auswerteverfahren werden in dieser Arbeit beschrieben. Zur Untersuchung von solchen Mechanismen, die in Turbo-Verdichtern als Rotierende Instabilitäten in Erscheinung treten, wird auf Datensätze zurückgegriffen, die anhand experimenteller Untersuchungen an einem ringförmigen Verdichter-Leitrad gewonnen wurden. Die Rotierenden Instabilitäten sind zeitabhängige Strömungsphänomene, die bei hohen aerodynamischen Belastungen in Verdichtergittern auftreten können. Aufgrund der fehlenden Phaseninformation kann diese instationäre Strömung mit konventionellen PIV-Systemen nicht erfasst werden. Die Kármánsche Wirbelstraße und Rotierende Instabilitäten stellen beide selbsterregte Strömungsvorgänge dar. Die Ähnlichkeit wird genutzt um die Funktionalität des Verfahrens anhand der Kármánschen Wirbelstraße nachzuweisen. Der mittels PIV zu visualisierende Wirbeltransport erfordert ein besonderes Verfahren, da ein externes Signal zur Festlegung des Phasenwinkels dieser selbsterregten Strömung nicht zur Verfügung steht. Die Methodik basiert auf der Kopplung der PIV-Technik mit der Hitzdrahtanemometrie. Die gleichzeitige Messung mittels einer zeitlich hochaufgelösten Hitzdraht-Messung ermöglicht den Zeitpunkten der PIV-Bilder einen Phasenwinkel zuzuordnen. Hierzu wird das Hitzdrahtsignal mit einem FFT-Verfahren analysiert, um die PIV-Bilder entsprechend ihrer Phasenwinkel zu gruppieren. Dafür werden die aufgenommenen Bilder auf der Zeitachse der Hitzdrahtmessungen markiert. Eine systematische Analyse des Hitzdrahtsignals in der Umgebung der PIV-Messung liefert Daten zur Festlegung der Grundfrequenz und erlaubt es, der markierten PIV-Position einen Phasenwinkel zuzuordnen. Die sich aus den PIV-Bildern einer Klasse ergebenden Geschwindigkeitskomponenten werden anschließend gemittelt. Aus den resultierenden Bildern jeder Klasse ergibt sich das zweidimensionale zeitabhängige Geschwindigkeitsfeld, in dem die Wirbelwanderung der Kármánschen Wirbelstraße ersichtlich wird. In hierauf aufbauenden Untersuchungen werden Zeitsignale aus Messungen in einem Verdichterringgitter analysiert. Dabei zeigt sich, dass zusätzlich Filterfunktionen erforderlich sind. Im Ergebnis wird schließlich deutlich, dass die Übertragung der anhand der Kármánschen Wirbelstraße entwickelten Methode nur teilweise gelingt und weitere Forschungsarbeiten erforderlich sind.