913 resultados para Monitoring, SLA, JBoss, Middleware, J2EE, Java, Service Level Agreements
Resumo:
Tässä diplomityössä on oletettu että neljännen sukupolven mobiiliverkko on saumaton yhdistelmä olemassa olevia toisen ja kolmannen sukupolven langattomia verkkoja sekä lyhyen kantaman WLAN- ja Bluetooth-radiotekniikoita. Näiden tekniikoiden on myös oletettu olevan niin yhteensopivia ettei käyttäjä havaitse saanti verkon muuttumista. Työ esittelee neljännen sukupolven mobiiliverkkoihin liittyvien tärkeimpien langattomien tekniikoiden arkkitehtuurin ja perustoiminta-periaatteet. Työ kuvaa eri tekniikoita ja käytäntöjä tiedon mittaamiseen ja keräämiseen. Saatuja transaktiomittauksia voidaan käyttää tarjottaessa erilaistettuja palvelutasoja sekä verkko- ja palvelukapasiteetin optimoimisessa. Lisäksi työssä esitellään Internet Business Information Manager joka on ohjelmistokehys hajautetun tiedon keräämiseen. Sen keräämää mittaustietoa voidaan käyttää palvelun tason seurannassa j a raportoinnissa sekä laskutuksessa. Työn käytännön osuudessa piti kehittää langattoman verkon liikennettä seuraava agentti joka tarkkailisi palvelun laatua. Agentti sijaitsisi matkapuhelimessa mitaten verkon liikennettä. Agenttia ei kuitenkaan voitu toteuttaa koska ohjelmistoympäristö todettiin vajaaksi. Joka tapauksessa työ osoitti että käyttäjän näkökulmasta tietoa kerääville agenteille on todellinen tarve.
Resumo:
IP-verkkojen hyvin tunnettu haitta on, että nämä eivät pysty takaamaan tiettyä palvelunlaatua (Quality of Service) lähetetyille paketeille. Seuraavat kaksi tekniikkaa pidetään lupaavimpina palvelunlaadun tarjoamiselle: Differentiated Services (DiffServ) ja palvelunlaatureititys (QoS Routing). DiffServ on varsin uusi IETF:n määrittelemä Internetille tarkoitettu palvelunlaatumekanismi. DiffServ tarjoaa skaalattavaa palvelujen erilaistamista ilman viestintää joka hypyssä ja per-flow –tilan ohjausta. DiffServ on hyvä esimerkki hajautetusta verkkosuunnittelusta. Tämän palvelutasomekanismin tavoite on viestintäjärjestelmien suunnittelun yksinkertaistaminen. Verkkosolmu voidaan rakentaa pienestä hyvin määritellystä rakennuspalikoiden joukosta. Palvelunlaatureititys on reititysmekanismi, jolla liikennereittejä määritellään verkon käytettävissä olevien resurssien pohjalta. Tässä työssä selvitetään uusi palvelunlaatureititystapa, jota kutsutaan yksinkertaiseksi monitiereititykseksi (Simple Multipath Routing). Tämän työn tarkoitus on suunnitella palvelunlaatuohjain DiffServille. Tässä työssä ehdotettu palvelunlaatuohjain on pyrkimys yhdistää DiffServ ja palvelunlaatureititysmekanismeja. Työn kokeellinen osuus keskittyy erityisesti palvelunlaatureititysalgoritmeihin.
Resumo:
Tant en la meva etapa d’estudiant com en la meva curta vida laboral, he participat en el desenvolupament de varies aplicacions de gestió, tant d’escriptori com web, que majoritàriament sempre estaven dividides en tres capes però en dos nivells: la base de dades i l’aplicació, que contenia tant la lògica de negoci com la vista. Des de fa temps he tingut la curiositat i la necessitat d’intentar desenvolupar una aplicació de gestió que estigui distribuïda en tres o més nivells, separant el model de dades i la lògica de negoci de la vista. Crec que el treball de fi de carrera és idoni per desenvolupar-la. L’aplicació a desenvolupar anirà destinada a la gestió d’un servei d’informàtica, que s’encarrega de resoldre les incidències, inventariar i realitzar el manteniment preventiu dels equips informàtics d’una o de varies empreses. Es crearà una aplicació que contindrà el model de dades i la lògica de negoci. També es crearan dues aplicacions clients: una aplicació d’escriptori que donarà accés a totes i cadascuna de les funcionalitats del sistema i una aplicació web que oferirà un accés lleuger i des de qualsevol ubicació a les funcionalitats d’explotació del sistema. Per últim, també es crearà una altre aplicació web que s’encarregarà de generar els llistats sol•licitats per les dues aplicacions clients. D’aquesta manera també es centralitzarà la gestió dels llistats de les aplicacions del sistema. Per desenvolupar el sistema, s’utilitzarà la plataforma J2EE de Java, i es comptarà amb l’ajuda de marcs de treball com, per exemple, Oracle ADF o JasperReports. Com a conclusió general, puc assegurar que si es distribueixen les tres capes d’un sistema en tres nivells s’obtenen beneficis en l’administració, en el manteniment, en l’escalabilitat, en la flexibilitat i en la reutilització de les aplicacions. El principal inconvenient és el possible augment de lentitud en les aplicacions clients.
Resumo:
As primary objective, this thesis examines Finnair Technical Procurement’s service quality with its underlying process. As an internal unit, Technical Procurement serves as a link between external suppliers and internal customers. It is argued that external service quality requires a certain quality level within an organization. At the same time, aircraft maintenance business is subject to economic restraints. Therefore, a methodology was developed with a modified House of Quality that assists management in analyzing and evaluating Technical Procurement’s service level and connected process steps. It could be shown that qualitative and quantitative objectives do not exclude each other per se.
Resumo:
The goal of this study is to develop managerial recommendations for international vendors and system integrators, which offer Software as a Service for enterprise information systems on the Russian market. Those recommendations can be used to develop marketing, sales, new product and service level agreement strategies. For those reasons factors affecting SaaS adoption were determined and their influence on intention to adoption was examined.
Resumo:
Pro Gradu -tutkielman tavoitteena on tutkia ulkoistettujen toimintojen valvontaa sekä toimintoihin kohdistuvan valvonnan eroja yrityksissä. Lisäksi tutkitaan, miten hyvin ulkoistukseen liittyvät mittarit toimivat. Tutkimuksessa pyritään selvittämään ulkoistamiseen liittyvien riskien toteutumisia sekä selvittämään valvonnan vaikutusta palvelun laatuun. Tutkimuksen tekoon vaikutti ulkoistamisten lisääntyminen sekä ulkoistettujen toimintojen valvontaan keskittyvien tutkimuksien puuttuminen. Aiemmin tehdyissä tutkimuksissa ei ole käsitelty toimintojen valvontaa. Empiirisessä tutkimuksessa tarkastellaan seitsemän eri toimialalla toimivan yrityksen ulkoistettuja toimintoja. Aineistokeruu tutkimukseen on toteutettu haastatteluina. Tutkimustulosten perusteella voidaan todeta yritysten valvonnan perustuvan sopimuksessa määriteltyihin mittareihin, joiden koetaan mittaavan haluttuja asioita. Toimintojen valvonnassa ei yrityksien välillä ole olennaisia eroja. Yritykset ovat pääsääntöisesti huomioineet ulkoistukseen liittyvät riskit riskienhallinnassaan. Yritykset kokevat valvonnan tehostamisen vaikuttavan palvelun laatuun.
Resumo:
Knowledge and competence are in important role in today’s demanding business environment where hard competition forces everyone to specialize and concentrate more to core competencies. Companies are outsourcing services, making processes more efficient and utilizing better their staff and available knowledge capital. It requires good strategic planning, process measuring and management and motivated staff, who is willing to continuously learn and absorb new information. This Thesis examines almost total IT service outsourcing to international service provider in situation where company previously had own IT. Work contains problematic situations during the change and suggestions how to improve services and understand the new model in a better way.
Resumo:
Customer satisfaction should be the main focus for all of the parts of the business. Usually supply chain behind the business is in a key role when this focus is pursued especially in repair service business. When focusing on the materials that are needed to make repairs to equipment under service contracts, the time aspect of quality is critical. Do late deliveries from supplier have an effect on the service performance of repairs when distribution center of a centralized purchasing unit is acting as a buffer between suppliers and repair service business? And if so, how should the improvement efforts be prioritized? These are the two main questions that this thesis focuses on. Correlation and linear regression was tested between service levels of supplier and distribution center. Percentage of on-time deliveries were compared to outbound delivery service level. It was found that there is statistically significant correlation between inbound and outbound operations success. The other main question of the thesis, improvement prioritization, was answered by creating material availability based supplier classification and additional to that, by developing the decision process for the analysis of most critical suppliers. This was built on a basis of previous supplier and material classification methods.
Resumo:
The Finnish IT service market can be described to be at a turning point. The clients are ever more interested on services delivered from offshore but certain issues keep them cautious. There is a lack of knowledge on what implications different degrees of offshoring have on service quality. Although there has been significant amount of research related to both service quality and offshoring, several questions are unanswered, terminology remains ambivalent and research findings are inconsistent. The study focuses on the interception of these two fields. The purpose of the study is to learn more about service quality in different degrees of offshoring. At the same time it aims to contribute in narrowing the research gaps. The degree of offshoring can be divided to three delivery modes: onshore, collaboration and offshore. The study takes a mixed method approach where the quantitative and qualitative phases are executed sequentially. First data was gathered from incident management system. Resolution time in different degrees of offshoring was analyzed with Kruskal-Wallis and Jonckheere-Terpstra tests. In addition, the compliance to Service Level Agreement (SLA) in different degrees of offshoring was examined with cross tabulation. The findings from the quantitative analysis suggested that the services with offshore delivery mode perform the best in terms of promptness and SLA compliance. However, several issues were found related to the data and for that reason, the findings should be considered with prudence. After the quantitative analysis, the study moved on to qualitative data collection and analysis. Four semi-structured interviews were held. The interviewees represented different organizational roles and had experiences from different delivery modes. Several themes were covered in the interviews, including: the concept of quality, the subjectivity or objectivity of service quality, expectations and prejudices towards offshore deliveries, quality produced in India, proactiveness of offshore resources, quality indicators and the scarcity of collaborative deliveries. Several conclusions can be made from the empirical research. Firstly, the quality in different delivery modes was found to be controversial topic. Secondly, in the collaborative delivery covered in the study, the way tasks and resources are allocated seem to cause issues. On the other hand inexperienced offshore resources are assigned to the delivery and on the other hand only routine tasks are assigned to the resources. This creates a self-enforcing loop that results in low motivation, low ownership and high employee turnover in offshore. Nevertheless, this issue is not characteristic only to collaborative deliveries but rather allocation of tasks and resources. Moreover, prejudices were identified to affect the perceived service quality in non-predictable way. The research also demonstrated that there is a need in focal company for further data gathering and analysis.
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
Die ubiquitäre Datenverarbeitung ist ein attraktives Forschungsgebiet des vergangenen und aktuellen Jahrzehnts. Es handelt von unaufdringlicher Unterstützung von Menschen in ihren alltäglichen Aufgaben durch Rechner. Diese Unterstützung wird durch die Allgegenwärtigkeit von Rechnern ermöglicht die sich spontan zu verteilten Kommunikationsnetzwerken zusammen finden, um Informationen auszutauschen und zu verarbeiten. Umgebende Intelligenz ist eine Anwendung der ubiquitären Datenverarbeitung und eine strategische Forschungsrichtung der Information Society Technology der Europäischen Union. Das Ziel der umbebenden Intelligenz ist komfortableres und sichereres Leben. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung charakterisieren sich durch Heterogenität der verwendeten Rechner. Diese reichen von Kleinstrechnern, eingebettet in Gegenstände des täglichen Gebrauchs, bis hin zu leistungsfähigen Großrechnern. Die Rechner verbinden sich spontan über kabellose Netzwerktechnologien wie wireless local area networks (WLAN), Bluetooth, oder UMTS. Die Heterogenität verkompliziert die Entwicklung und den Aufbau von verteilten Kommunikationsnetzwerken. Middleware ist eine Software Technologie um Komplexität durch Abstraktion zu einer homogenen Schicht zu reduzieren. Middleware bietet eine einheitliche Sicht auf die durch sie abstrahierten Ressourcen, Funktionalitäten, und Rechner. Verteilte Kommunikationsnetzwerke für die ubiquitäre Datenverarbeitung sind durch die spontane Verbindung von Rechnern gekennzeichnet. Klassische Middleware geht davon aus, dass Rechner dauerhaft miteinander in Kommunikationsbeziehungen stehen. Das Konzept der dienstorienterten Architektur ermöglicht die Entwicklung von Middleware die auch spontane Verbindungen zwischen Rechnern erlaubt. Die Funktionalität von Middleware ist dabei durch Dienste realisiert, die unabhängige Software-Einheiten darstellen. Das Wireless World Research Forum beschreibt Dienste die zukünftige Middleware beinhalten sollte. Diese Dienste werden von einer Ausführungsumgebung beherbergt. Jedoch gibt es noch keine Definitionen wie sich eine solche Ausführungsumgebung ausprägen und welchen Funktionsumfang sie haben muss. Diese Arbeit trägt zu Aspekten der Middleware-Entwicklung für verteilte Kommunikationsnetzwerke in der ubiquitären Datenverarbeitung bei. Der Schwerpunkt liegt auf Middleware und Grundlagentechnologien. Die Beiträge liegen als Konzepte und Ideen für die Entwicklung von Middleware vor. Sie decken die Bereiche Dienstfindung, Dienstaktualisierung, sowie Verträge zwischen Diensten ab. Sie sind in einem Rahmenwerk bereit gestellt, welches auf die Entwicklung von Middleware optimiert ist. Dieses Rahmenwerk, Framework for Applications in Mobile Environments (FAME²) genannt, beinhaltet Richtlinien, eine Definition einer Ausführungsumgebung, sowie Unterstützung für verschiedene Zugriffskontrollmechanismen um Middleware vor unerlaubter Benutzung zu schützen. Das Leistungsspektrum der Ausführungsumgebung von FAME² umfasst: • minimale Ressourcenbenutzung, um auch auf Rechnern mit wenigen Ressourcen, wie z.B. Mobiltelefone und Kleinstrechnern, nutzbar zu sein • Unterstützung für die Anpassung von Middleware durch Änderung der enthaltenen Dienste während die Middleware ausgeführt wird • eine offene Schnittstelle um praktisch jede existierende Lösung für das Finden von Diensten zu verwenden • und eine Möglichkeit der Aktualisierung von Diensten zu deren Laufzeit um damit Fehlerbereinigende, optimierende, und anpassende Wartungsarbeiten an Diensten durchführen zu können Eine begleitende Arbeit ist das Extensible Constraint Framework (ECF), welches Design by Contract (DbC) im Rahmen von FAME² nutzbar macht. DbC ist eine Technologie um Verträge zwischen Diensten zu formulieren und damit die Qualität von Software zu erhöhen. ECF erlaubt das aushandeln sowie die Optimierung von solchen Verträgen.
Resumo:
Die Bedeutung des Dienstgüte-Managements (SLM) im Bereich von Unternehmensanwendungen steigt mit der zunehmenden Kritikalität von IT-gestützten Prozessen für den Erfolg einzelner Unternehmen. Traditionell werden zur Implementierung eines wirksamen SLMs Monitoringprozesse in hierarchischen Managementumgebungen etabliert, die einen Administrator bei der notwendigen Rekonfiguration von Systemen unterstützen. Auf aktuelle, hochdynamische Softwarearchitekturen sind diese hierarchischen Ansätze jedoch nur sehr eingeschränkt anwendbar. Ein Beispiel dafür sind dienstorientierte Architekturen (SOA), bei denen die Geschäftsfunktionalität durch das Zusammenspiel einzelner, voneinander unabhängiger Dienste auf Basis deskriptiver Workflow-Beschreibungen modelliert wird. Dadurch ergibt sich eine hohe Laufzeitdynamik der gesamten Architektur. Für das SLM ist insbesondere die dezentrale Struktur einer SOA mit unterschiedlichen administrativen Zuständigkeiten für einzelne Teilsysteme problematisch, da regelnde Eingriffe zum einen durch die Kapselung der Implementierung einzelner Dienste und zum anderen durch das Fehlen einer zentralen Kontrollinstanz nur sehr eingeschränkt möglich sind. Die vorliegende Arbeit definiert die Architektur eines SLM-Systems für SOA-Umgebungen, in dem autonome Management-Komponenten kooperieren, um übergeordnete Dienstgüteziele zu erfüllen: Mithilfe von Selbst-Management-Technologien wird zunächst eine Automatisierung des Dienstgüte-Managements auf Ebene einzelner Dienste erreicht. Die autonomen Management-Komponenten dieser Dienste können dann mithilfe von Selbstorganisationsmechanismen übergreifende Ziele zur Optimierung von Dienstgüteverhalten und Ressourcennutzung verfolgen. Für das SLM auf Ebene von SOA Workflows müssen temporär dienstübergreifende Kooperationen zur Erfüllung von Dienstgüteanforderungen etabliert werden, die sich damit auch über mehrere administrative Domänen erstrecken können. Eine solche zeitlich begrenzte Kooperation autonomer Teilsysteme kann sinnvoll nur dezentral erfolgen, da die jeweiligen Kooperationspartner im Vorfeld nicht bekannt sind und – je nach Lebensdauer einzelner Workflows – zur Laufzeit beteiligte Komponenten ausgetauscht werden können. In der Arbeit wird ein Verfahren zur Koordination autonomer Management-Komponenten mit dem Ziel der Optimierung von Antwortzeiten auf Workflow-Ebene entwickelt: Management-Komponenten können durch Übertragung von Antwortzeitanteilen untereinander ihre individuellen Ziele straffen oder lockern, ohne dass das Gesamtantwortzeitziel dadurch verändert wird. Die Übertragung von Antwortzeitanteilen wird mithilfe eines Auktionsverfahrens realisiert. Technische Grundlage der Kooperation bildet ein Gruppenkommunikationsmechanismus. Weiterhin werden in Bezug auf die Nutzung geteilter, virtualisierter Ressourcen konkurrierende Dienste entsprechend geschäftlicher Ziele priorisiert. Im Rahmen der praktischen Umsetzung wird die Realisierung zentraler Architekturelemente und der entwickelten Verfahren zur Selbstorganisation beispielhaft für das SLM konkreter Komponenten vorgestellt. Zur Untersuchung der Management-Kooperation in größeren Szenarien wird ein hybrider Simulationsansatz verwendet. Im Rahmen der Evaluation werden Untersuchungen zur Skalierbarkeit des Ansatzes durchgeführt. Schwerpunkt ist hierbei die Betrachtung eines Systems aus kooperierenden Management-Komponenten, insbesondere im Hinblick auf den Kommunikationsaufwand. Die Evaluation zeigt, dass ein dienstübergreifendes, autonomes Performance-Management in SOA-Umgebungen möglich ist. Die Ergebnisse legen nahe, dass der entwickelte Ansatz auch in großen Umgebungen erfolgreich angewendet werden kann.
Resumo:
This graduate study was assigned by Unisys Oy Ab. The purpose of this study was to find tools to monitor and manage servers and objects in a hosting environment and to remotely connect to the managed objects. Better solutions for promised services were also researched. Unisys provides a ServerHotel service to other businesses which do not have time or resources to manage their own network, servers or applications. Contracts are based on a Service Level Agreement where service level is agreed upon according to the customer's needs. These needs have created a demand for management tools. Unisys wanted to find the most appropriate tools for its hosting environment to fulfill the agreed service level with reasonable costs. The theory consists of literary research focusing on general agreements used in the Finnish IT business, different types of monitoring and management tools and the common protocols used inthem. The theory focuses mainly on the central elements of the above mentioned topics and on their positive and negative features. The second part of the study focuses on general hosting agreements and what management tools Unisys has selected for hosting and why. It also gives a more detailed account of the hosting environment and its features in more detail. Because of the results of the study Unisys decided to use Servers Alive to monitor network and MS applications’ services. Cacti was chosen to monitor disk spaces, which gives us an idea of future disk growth. For remote connections the Microsoft’s Remote Desktop tool was the mostappropriate when the connection was tunneled through Secure Shell (SSH). Finding proper tools for the intended purposes with cost-conscious financial resources proved challenging. This study showed that if required, it is possible to build a professional hosting environment.
Resumo:
With the constant grow of enterprises and the need to share information across departments and business areas becomes more critical, companies are turning to integration to provide a method for interconnecting heterogeneous, distributed and autonomous systems. Whether the sales application needs to interface with the inventory application, the procurement application connect to an auction site, it seems that any application can be made better by integrating it with other applications. Integration between applications can face several troublesome due the fact that applications may not have been designed and implemented having integration in mind. Regarding to integration issues, two tier software systems, composed by the database tier and by the “front-end” tier (interface), have shown some limitations. As a solution to overcome the two tier limitations, three tier systems were proposed in the literature. Thus, by adding a middle-tier (referred as middleware) between the database tier and the “front-end” tier (or simply referred application), three main benefits emerge. The first benefit is related with the fact that the division of software systems in three tiers enables increased integration capabilities with other systems. The second benefit is related with the fact that any modifications to the individual tiers may be carried out without necessarily affecting the other tiers and integrated systems and the third benefit, consequence of the others, is related with less maintenance tasks in software system and in all integrated systems. Concerning software development in three tiers, this dissertation focus on two emerging technologies, Semantic Web and Service Oriented Architecture, combined with middleware. These two technologies blended with middleware, which resulted in the development of Swoat framework (Service and Semantic Web Oriented ArchiTecture), lead to the following four synergic advantages: (1) allow the creation of loosely-coupled systems, decoupling the database from “front-end” tiers, therefore reducing maintenance; (2) the database schema is transparent to “front-end” tiers which are aware of the information model (or domain model) that describes what data is accessible; (3) integration with other heterogeneous systems is allowed by providing services provided by the middleware; (4) the service request by the “frontend” tier focus on ‘what’ data and not on ‘where’ and ‘how’ related issues, reducing this way the application development time by developers.