856 resultados para service oriented architecture
Resumo:
Service-Oriented Architecture (SOA) and Web Services (WS) offer advanced flexibility and interoperability capabilities. However they imply significant performance overheads that need to be carefully considered. Supply Chain Management (SCM) and Traceability systems are an interesting domain for the use of WS technologies that are usually deemed to be too complex and unnecessary in practical applications, especially regarding security. This paper presents an externalized security architecture that uses the eXtensible Access Control Markup Language (XACML) authorization standard to enforce visibility restrictions on trace-ability data in a supply chain where multiple companies collaborate; the performance overheads are assessed by comparing 'raw' authorization implementations - Access Control Lists, Tokens, and RDF Assertions - with their XACML-equivalents. © 2012 IEEE.
Resumo:
面向服务的计算(Service Oriented Computing,SOC)与面向服务的体系结构(Service Oriented Architecture,SOA)是分布式系统和软件集成技术领域中的一种新型的计算范型和体系结构。Web服务作为一种自治、开放以及平台无关的网络化构件,可使分布式应用具有更好的可重用性、灵活性和可扩展性,为Internet开放网络环境下的资源共享与业务集成提供了新的解决方案。然而由于Web服务的分布性以及异构、动态和不断演化的特点,使得服务之间的协作变得非常复杂,如何保证服务之间协作的正确性和可靠性便成为应用SOA架构的关键问题。适配技术为解决这一问题提供了可行的解决方案,服务适配使得原本无法正确交互的服务在服务适配器的介入下正确地完成协同工作,从而提高了服务组件的可重用性,实现了复杂系统的高效开发,保证了协作系统的可扩展性和健壮性。因此,服务适配机制的研究对面向服务计算技术的发展以及面向服务架构的成功应用与实施有着重要的意义。 本文在分析服务适配相关工作的基础之上,重点围绕服务协作中的分布式适配结构、适配器流程的自动生成方法,以及适配器的动态演化机制等几个方面的理论基础和关键技术展开研究工作,并建立了支持分布式适配的服务协作支撑框架和原型系统,对上述方法进行验证。本文主要的研究内容和贡献如下: 首先,本文提出了一种自顶向下地实现服务协作中分布式适配的方法。以全局服务协作流程为出发点,基于角色进行投影得到各个参与者对应的抽象服务接口,并以此为依据,为服务组件生成独立的适配器,实现分布式的服务适配结构,从而更加满足开放网络环境对于高效、灵活的服务协作机制的需求。本文深入探究了分布式适配模型的构造方法,定义了模型中各个层次的组成元素,重点给出了失败等价(Failure Equivalent)行为语义保持的投影规则,以保证全局协作流程与生成的抽象服务接口的等价性。 其次,围绕适配器流程的自动生成方法展开研究,现有方法对适配器流程的正确性进行分析时,只能给出确定的“是”或者“否”的结果,而并没有更深入地分析服务行为中无法适配的程度,从而无法对服务交互中的内在关系进行更深入的揭示。本文引入了可适配度的概念,以此来分析服务组件与协作需求的差异性,并给出了基于交互路径的方法来计算无法适配的节点及对应的模式。这样一方面可以依据可适配度来选择合适的服务进行协作,从而降低服务协作应用的开发成本,另一方面,开发人员还可以利用无法适配的相关信息,对服务实现进行有效地修改,这对于服务流程的管理和改进等方面都有着重要的作用。此外,与现有适配器自动生成方法相比,本文所给出的整体构造,一次性检查的方法,有效地降低了自动构造算法的复杂度。 再次,在面向服务的计算与面向服务的软件架构中,服务组件具有动态和不断演化的特性,现有的适配机制只是静态地分析了适配器的结构和相关属性,但是缺乏对适配器响应动态变化的可适应能力的研究。本文研究了适配器流程定义的自动更新以及适配器实例的动态调整方法,从而使适配器具有可重配置以及动态调整的能力,保证了基于适配的服务协作系统的灵活性和动态可适应性。 最后,在上述研究的基础之上,设计与实现了一个原型系统,包含了流程建模,协作管理以及协作运行三大模块,用于实现服务协作中的分布式适配方法。同时,针对每个核心组件,介绍了其功能模块的设计与实现,并基于实例说明了适配器的应用开发过程。
Resumo:
在开放的互联网环境中,面向服务的计算(Service-Oriented Computing, SOC)和面向服务的体系架构(Service-Oriented Architecture, SOA)使得信息资源和软件系统的主要形态发生了巨大变化,并引领着互联网计算技术和软件系统新的发展方向。服务是SOC和SOA的核心思想,服务的平台独立、高可重用和松散耦合等特性使之成为复杂分布式应用可行的解决方案。Web服务的出现和发展为实施与部署SOC和SOA提供了最佳支撑技术。目前web服务发现机制在服务描述的全面性和服务匹配方法的有效性方面存在不足之处,难以保证服务发现的性能。特别是在服务数量剧增的情况下,用户亟需一种自动快速而准确的服务发现机制。语义web技术不仅为web的表示内容提供了一种语义标识方法,推动了web内容的自动化和智能化搜索,也为web服务的描述提供了增加语义层次内容的有效方法,两者的结合形成了一个新的研究领域——语义web服务。该领域通过借鉴语义web的相关技术来增加web服务的语义描述,进而为web服务的发现、组合、调用和监控等环节提供语义层次的支持,增强web服务的自动化和智能化水平。 本文的研究目的就是利用语义web的思想,基于SOC和SOA的理念以及现有的web服务发现机制对web服务信息进行语义描述、组织,探索语义web服务匹配与发现的关键问题,提出有效的解决方案。本文的研究工作和贡献主要在以下四个方面: 1. 针对语义近似度的度量和计算问题基于OWL(Web Ontology Language)提出了一个语义近似度计算SSM模型,该模型中所有概念及概念之间的关系、所有的概念属性及属性之间的关系都被抽象定义并建模,根据概念、属性及其语义关系模型,构建了基于概念关系的拓扑近似度计算函数和属性近似度计算函数,从而进一步构建语义近似度计算函数。该语义近似度计算函数以代表OWL本体概念上下级关系和等价关系的树状结构为基础,利用概念间的拓扑关系和属性关系进行语义近似度的度量和计算。语义近似度函数的返回值为一个介于0与1之间的数值,代表函数的两个输入概念之间的语义近似度值。 2. 提出了一个基于概念语义近似度的以OWL-S为顶层本体的web服务语义匹配PSM模型。该模型将服务的匹配项分为服务能力、服务质量、服务名称和服务参数四个部分。基于该模型,提出了相应的PSM服务匹配算法。PSM算法能够对服务内部的服务流程及流程的组合进行与服务请求的语义匹配,并且避免了服务流程中互斥接口参数参与匹配。而且PSM匹配算法实现了服务接口的单射匹配,进一步提高服务发现的性能。在服务质量匹配计算上,提出了服务质量匹配模型PSM-QoS,为服务的QoS匹配建立了计算基础。PSM算法使用语义近似度计算函数度量和计算服务属性概念的语义近似度值,从而能够返回细粒度的服务匹配度值。 3. 在语义服务匹配PSM模型的基础上提出一种语义web服务发现架构系统PSM-SD模型。该模型将OWL-S语义元素引入UDDI服务描述,从而在UDDI中保存语义信息。通过PSM算法提高web服务匹配性能,并通过数据映射机制保证模型对于当前的服务发现标准UDDI基础架构的兼容以及UDDI标准操作接口的透明性。模型使用本体概念的索引机制提高服务发现的效率。在建立和维护索引的过程或服务的匹配过程中,模型使用近似概念搜寻算法进一步提高本体概念搜寻和服务匹配的效率。 4. 设计并开发了基于语义web服务发现架构模型的原型系统。该系统将语义近似度计算模型、语义web服务匹配模型和语义web服务发现架构模型进行软件实现。本文在该原型系统平台上对语义web服务发现的方法进行了实验,验证了方法的有效性。
Resumo:
智能商业平台是大型企业商务应用的一个新兴领域,智能商业平台通过数据仓库、数据挖掘技术对企业的大量数据进行分析从而发现企业发展的内部规律,为企业的科学决策提供有效支持。目前的智能商业平台在体系结构上采用传统的集中式的IT架构,尚存在如下问题:1)不能与其它的信息系统间进行交互;2)采用重建系统的方式开发,不能有效利用现有信息系统资源;3)不能适应快速变化的业务需求进行灵活的系统扩充;4)由于系统的所有功能集中在同一服务器中,严重影响了系统的访问性能。 面对上述具有挑战的问题,本文将Web服务同智能商业平台相结合,从体系结构角度出发,提出一种基于SOA(Service-Oriented Architecture)的智能商业平台,并在银联需求基础上开发基于SOA的银联智能商业平台,解决传统智能商业平台无法与其它系统交互、资源浪费、不能灵活扩展及访问性能等方面的问题。 本文首先分析了国内外智能商业平台的研究现状,指出了其中尚未解决的问题,然后结合SOA的设计思想和传统的OOAD方法进行银联智能商业平台的业务流程建模,提出了面向服务的业务流程模型,并根据对用户需求的分析和理解设计了基于SOA的分层体系结构。然后文章着重阐述了服务管理层、核心服务层和应用服务层的设计思想与实现方法:1)服务管理层负责系统中所有服务的统一维护和管理,其中重点分析、讨论了基于UDDI的服务注册中心等核心技术;2)核心服务层是我们为了支撑上层应用服务所开发的大量底层服务,包括报表统计服务、多维分析服务、数据挖掘服务、用户管理、日志管理服务等,文中详细介绍了这些核心服务的设计和工作流程描述;3)应用层主要是各种系统功能的应用集成,提供了统一的门户交互系统,在这部分将着重给出统一门户集成的实现。 通过构建面向服务的业务流程和体系结构,基于SOA的银联智能商业平台在解决了传统智能商业平台问题的基础上还具有多项优势:标准化,构件化,可重用性,可扩展性,可互操作性等。
Resumo:
A cross-domain workflow application may be constructed using a standard reference model such as the one by the Workflow Management Coalition (WfMC) [7] but the requirements for this type of application are inherently different from one organization to another. The existing models and systems built around them meet some but not all the requirements from all the organizations involved in a collaborative process. Furthermore the requirements change over time. This makes the applications difficult to develop and distribute. Service Oriented Architecture (SOA) based approaches such as the BPET (Business Process Execution Language) intend to provide a solution but fail to address the problems sufficiently, especially in the situations where the expectations and level of skills of the users (e.g. the participants of the processes) in different organisations are likely to be different. In this paper, we discuss a design pattern that provides a novel approach towards a solution. In the solution, business users can design the applications at a high level of abstraction: the use cases and user interactions; the designs are documented and used, together with the data and events captured later that represents the user interactions with the systems, to feed an intermediate component local to the users -the IFM (InterFace Mapper) -which bridges the gaps between the users and the systems. We discuss the main issues faced in the design and prototyping. The approach alleviates the need for re-programming with the APIs to any back-end service thus easing the development and distribution of the applications
Resumo:
Dissertação de natureza científica realizada para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
Projecto Final de Mestrado para obtenção do grau de Mestre em Engenharia Informática e de Computadores
Resumo:
This paper presents a tool called Petcha that acts as an automated Teaching Assistant in computer programming courses. The ultimate objective of Petcha is to increase the number of programming exercises effectively solved by students. Petcha meets this objective by helping both teachers to author programming exercises and students to solve them. It also coordinates a network of heterogeneous systems, integrating automatic program evaluators, learning management systems, learning object repositories and integrated programming environments. This paper presents the concept and the design of Petcha and sets this tool in a service oriented architecture for managing learning processes based on the automatic evaluation of programming exercises. The paper presents also a case study that validates the use of Petcha and of the proposed architecture.
Resumo:
Nos últimos anos o aumento exponencial da utilização de dispositivos móveis e serviços disponibilizados na “Cloud” levou a que a forma como os sistemas são desenhados e implementados mudasse, numa perspectiva de tentar alcançar requisitos que até então não eram essenciais. Analisando esta evolução, com o enorme aumento dos dispositivos móveis, como os “smartphones” e “tablets” fez com que o desenho e implementação de sistemas distribuidos fossem ainda mais importantes nesta área, na tentativa de promover sistemas e aplicações que fossem mais flexíveis, robutos, escaláveis e acima de tudo interoperáveis. A menor capacidade de processamento ou armazenamento destes dispositivos tornou essencial o aparecimento e crescimento de tecnologias que prometem solucionar muitos dos problemas identificados. O aparecimento do conceito de Middleware visa solucionar estas lacunas nos sistemas distribuidos mais evoluídos, promovendo uma solução a nível de organização e desenho da arquitetura dos sistemas, ao memo tempo que fornece comunicações extremamente rápidas, seguras e de confiança. Uma arquitetura baseada em Middleware visa dotar os sistemas de um canal de comunicação que fornece uma forte interoperabilidade, escalabilidade, e segurança na troca de mensagens, entre outras vantagens. Nesta tese vários tipos e exemplos de sistemas distribuídos e são descritos e analisados, assim como uma descrição em detalhe de três protocolos (XMPP, AMQP e DDS) de comunicação, sendo dois deles (XMPP e AMQP) utilzados em projecto reais que serão descritos ao longo desta tese. O principal objetivo da escrita desta tese é demonstrar o estudo e o levantamento do estado da arte relativamente ao conceito de Middleware aplicado a sistemas distribuídos de larga escala, provando que a utilização de um Middleware pode facilitar e agilizar o desenho e desenvolvimento de um sistema distribuído e traz enormes vantagens num futuro próximo.
Resumo:
The theme of the thesis is centred around one important aspect of wireless sensor networks; the energy-efficiency.The limited energy source of the sensor nodes calls for design of energy-efficient routing protocols. The schemes for protocol design should try to minimize the number of communications among the nodes to save energy. Cluster based techniques were found energy-efficient. In this method clusters are formed and data from different nodes are collected under a cluster head belonging to each clusters and then forwarded it to the base station.Appropriate cluster head selection process and generation of desirable distribution of the clusters can reduce energy consumption of the network and prolong the network lifetime. In this work two such schemes were developed for static wireless sensor networks.In the first scheme, the energy wastage due to cluster rebuilding incorporating all the nodes were addressed. A tree based scheme is presented to alleviate this problem by rebuilding only sub clusters of the network. An analytical model of energy consumption of proposed scheme is developed and the scheme is compared with existing cluster based scheme. The simulation study proved the energy savings observed.The second scheme concentrated to build load-balanced energy efficient clusters to prolong the lifetime of the network. A voting based approach to utilise the neighbor node information in the cluster head selection process is proposed. The number of nodes joining a cluster is restricted to have equal sized optimum clusters. Multi-hop communication among the cluster heads is also introduced to reduce the energy consumption. The simulation study has shown that the scheme results in balanced clusters and the network achieves reduction in energy consumption.The main conclusion from the study was the routing scheme should pay attention on successful data delivery from node to base station in addition to the energy-efficiency. The cluster based protocols are extended from static scenario to mobile scenario by various authors. None of the proposals addresses cluster head election appropriately in view of mobility. An elegant scheme for electing cluster heads is presented to meet the challenge of handling cluster durability when all the nodes in the network are moving. The scheme has been simulated and compared with a similar approach.The proliferation of sensor networks enables users with large set of sensor information to utilise them in various applications. The sensor network programming is inherently difficult due to various reasons. There must be an elegant way to collect the data gathered by sensor networks with out worrying about the underlying structure of the network. The final work presented addresses a way to collect data from a sensor network and present it to the users in a flexible way.A service oriented architecture based application is built and data collection task is presented as a web service. This will enable composition of sensor data from different sensor networks to build interesting applications. The main objective of the thesis was to design energy-efficient routing schemes for both static as well as mobile sensor networks. A progressive approach was followed to achieve this goal.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
SOA (Service Oriented Architecture), workflow, the Semantic Web, and Grid computing are key enabling information technologies in the development of increasingly sophisticated e-Science infrastructures and application platforms. While the emergence of Cloud computing as a new computing paradigm has provided new directions and opportunities for e-Science infrastructure development, it also presents some challenges. Scientific research is increasingly finding that it is difficult to handle “big data” using traditional data processing techniques. Such challenges demonstrate the need for a comprehensive analysis on using the above mentioned informatics techniques to develop appropriate e-Science infrastructure and platforms in the context of Cloud computing. This survey paper describes recent research advances in applying informatics techniques to facilitate scientific research particularly from the Cloud computing perspective. Our particular contributions include identifying associated research challenges and opportunities, presenting lessons learned, and describing our future vision for applying Cloud computing to e-Science. We believe our research findings can help indicate the future trend of e-Science, and can inform funding and research directions in how to more appropriately employ computing technologies in scientific research. We point out the open research issues hoping to spark new development and innovation in the e-Science field.