898 resultados para Service level objective


Relevância:

80.00% 80.00%

Publicador:

Resumo:

Knowledge and competence are in important role in today’s demanding business environment where hard competition forces everyone to specialize and concentrate more to core competencies. Companies are outsourcing services, making processes more efficient and utilizing better their staff and available knowledge capital. It requires good strategic planning, process measuring and management and motivated staff, who is willing to continuously learn and absorb new information. This Thesis examines almost total IT service outsourcing to international service provider in situation where company previously had own IT. Work contains problematic situations during the change and suggestions how to improve services and understand the new model in a better way.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

FTTH-liityntäverkkoja voivat rakennuttaa ja omistaa perinteisten teleoperaattoreiden lisäksi myös muut toimijat, kuten sähköyhtiöt, valtion- ja kuntien omistamat yhtiöt ja yksityiset osuuskunnat. Markkinatoimijoiden ja eri teknologioiden keskinäinen kilpailu johtaa kuitenkin helposti pieniin liityntätiheyksiin ja hajanaisiin pieniin verkkoihin. Tämä tekee verkkojen kannattavasta rakentamisesta vaikeaa ja palvelujen toteuttamisesta tehotonta. Tilannetta voidaan parantaa tasapuolisella pääsyllä, joka selkeyttää arvoketjun osapuolten rooleja. Diplomityön tavoitteena oli kuvata kommunikaatio-operaattorin rooli Suomen telemarkkinaan ja rakentaa sille taloudellisesti kannattava liiketoimintamalli toisen osapuolen toteuttamiin tasapuolisen pääsyn FTTH-verkkoihin. Työ toteutettiin hyödyntäen konstruktiivista tutkimusotetta ja sen lopputuloksena syntyi soveltuva liiketoimintamalli. Kommunikaatio-operaattorin kaksipuolisella alustalla yhdistetään valtakunnallisesti toisiinsa palveluntarjoajat ja alueellisiin liityntäverkkoihin liittyneet loppuasiakkaat. Kommunikaatio-operaattorin liiketoimintamalli mahdollistaa kapasiteetin, palvelunlaadun ja toimintavarmuuden suhteen erilaistetut virtuaaliset tukkutuotteet ja sitä kautta mahdollisuuden uuteen ansaintaan.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

This master’s thesis considers wholesale company’s inventory value reduction and its effects to the operative working capital. The aim is to reduce inventory value by Enterprise Resource Planning System SAP in a controlled manner and without reducing the service level. This thesis contains a theory chapter of inventory management, operative working capital and benefits of ERP sys-tems in inventory management. These theory chapters are applied to practice, and the result is a lower inventory value in the case company. This releases more operative working capital to other more profitable subjects. With more accurate sales forecasts and by using SAP in the supply chain management average stock value can be reduced by 700 k€ which, in turn, reduces Cash Conversion Cycle by 7 days.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

The Finnish IT service market can be described to be at a turning point. The clients are ever more interested on services delivered from offshore but certain issues keep them cautious. There is a lack of knowledge on what implications different degrees of offshoring have on service quality. Although there has been significant amount of research related to both service quality and offshoring, several questions are unanswered, terminology remains ambivalent and research findings are inconsistent. The study focuses on the interception of these two fields. The purpose of the study is to learn more about service quality in different degrees of offshoring. At the same time it aims to contribute in narrowing the research gaps. The degree of offshoring can be divided to three delivery modes: onshore, collaboration and offshore. The study takes a mixed method approach where the quantitative and qualitative phases are executed sequentially. First data was gathered from incident management system. Resolution time in different degrees of offshoring was analyzed with Kruskal-Wallis and Jonckheere-Terpstra tests. In addition, the compliance to Service Level Agreement (SLA) in different degrees of offshoring was examined with cross tabulation. The findings from the quantitative analysis suggested that the services with offshore delivery mode perform the best in terms of promptness and SLA compliance. However, several issues were found related to the data and for that reason, the findings should be considered with prudence. After the quantitative analysis, the study moved on to qualitative data collection and analysis. Four semi-structured interviews were held. The interviewees represented different organizational roles and had experiences from different delivery modes. Several themes were covered in the interviews, including: the concept of quality, the subjectivity or objectivity of service quality, expectations and prejudices towards offshore deliveries, quality produced in India, proactiveness of offshore resources, quality indicators and the scarcity of collaborative deliveries. Several conclusions can be made from the empirical research. Firstly, the quality in different delivery modes was found to be controversial topic. Secondly, in the collaborative delivery covered in the study, the way tasks and resources are allocated seem to cause issues. On the other hand inexperienced offshore resources are assigned to the delivery and on the other hand only routine tasks are assigned to the resources. This creates a self-enforcing loop that results in low motivation, low ownership and high employee turnover in offshore. Nevertheless, this issue is not characteristic only to collaborative deliveries but rather allocation of tasks and resources. Moreover, prejudices were identified to affect the perceived service quality in non-predictable way. The research also demonstrated that there is a need in focal company for further data gathering and analysis.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Outsourcing and offshoring or any combinations of these have not just become a popular phenomenon, but are viewed as one of the most important management strategies due to the new possibilities from globalization. They have been seen as a possibility to save costs and improve customer service. Executing offshoring and offshore outsourcing successfully can be more complex than initially expected. Potential cost savings resulting from of offshoring and offshore outsourcing are often based on lower manufacturing costs. However, these benefits might be conflicted by a more complex supply chain with service level challenges that can respectively increase costs. Therefore analyzing the total cost effects of offshoring and outsourcing is necessary. The aim of this Master´s Thesis was to to construct a total cost model using academic literature to calculate the total costs and analyze the reasonability of offshoring and offshore outsourcing production of a case company compared to insourcing production. The research data was mainly quantitative and collected mainly from the case company past sales and production records. In addition management level interviews from the case company were conducted. The information from these interviews was used for the qualification of the necessary quantitative data and adding supportive information that could not be gathered from the quantitative data. Both data collection and analysis were guided by a theoretical frame of reference that was based on academic literature concerning offshoring and outsourcing, statistical calculation of demand and total costs. The results confirm the theories that offshoring and offshore outsourcing would reduce total costs as both offshoring and offshore outsourcing options result in lower total annual costs than insourcing mainly due to lower manufacturing costs. However, increased demand uncertainty would make the alternative of offshore outsourcing more risky and difficult to manage. Therefore when assessing the overall impact of the alternatives, offshoring is the most preferable option. As the main cost savings in offshore outsourcing came from lower manufacturing costs, more specifically labour costs, the logistics costs in this case company did not have an essential effect in total costs. The management should therefore pay attention initially to manufacturing costs and then logistics costs when choosing the best production sourcing option for the company.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Nous étudions la gestion de centres d'appels multi-compétences, ayant plusieurs types d'appels et groupes d'agents. Un centre d'appels est un système de files d'attente très complexe, où il faut généralement utiliser un simulateur pour évaluer ses performances. Tout d'abord, nous développons un simulateur de centres d'appels basé sur la simulation d'une chaîne de Markov en temps continu (CMTC), qui est plus rapide que la simulation conventionnelle par événements discrets. À l'aide d'une méthode d'uniformisation de la CMTC, le simulateur simule la chaîne de Markov en temps discret imbriquée de la CMTC. Nous proposons des stratégies pour utiliser efficacement ce simulateur dans l'optimisation de l'affectation des agents. En particulier, nous étudions l'utilisation des variables aléatoires communes. Deuxièmement, nous optimisons les horaires des agents sur plusieurs périodes en proposant un algorithme basé sur des coupes de sous-gradients et la simulation. Ce problème est généralement trop grand pour être optimisé par la programmation en nombres entiers. Alors, nous relaxons l'intégralité des variables et nous proposons des méthodes pour arrondir les solutions. Nous présentons une recherche locale pour améliorer la solution finale. Ensuite, nous étudions l'optimisation du routage des appels aux agents. Nous proposons une nouvelle politique de routage basé sur des poids, les temps d'attente des appels, et les temps d'inoccupation des agents ou le nombre d'agents libres. Nous développons un algorithme génétique modifié pour optimiser les paramètres de routage. Au lieu d'effectuer des mutations ou des croisements, cet algorithme optimise les paramètres des lois de probabilité qui génèrent la population de solutions. Par la suite, nous développons un algorithme d'affectation des agents basé sur l'agrégation, la théorie des files d'attente et la probabilité de délai. Cet algorithme heuristique est rapide, car il n'emploie pas la simulation. La contrainte sur le niveau de service est convertie en une contrainte sur la probabilité de délai. Par après, nous proposons une variante d'un modèle de CMTC basé sur le temps d'attente du client à la tête de la file. Et finalement, nous présentons une extension d'un algorithme de coupe pour l'optimisation stochastique avec recours de l'affectation des agents dans un centre d'appels multi-compétences.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Les centres d’appels sont des éléments clés de presque n’importe quelle grande organisation. Le problème de gestion du travail a reçu beaucoup d’attention dans la littérature. Une formulation typique se base sur des mesures de performance sur un horizon infini, et le problème d’affectation d’agents est habituellement résolu en combinant des méthodes d’optimisation et de simulation. Dans cette thèse, nous considérons un problème d’affection d’agents pour des centres d’appels soumis a des contraintes en probabilité. Nous introduisons une formulation qui exige que les contraintes de qualité de service (QoS) soient satisfaites avec une forte probabilité, et définissons une approximation de ce problème par moyenne échantillonnale dans un cadre de compétences multiples. Nous établissons la convergence de la solution du problème approximatif vers celle du problème initial quand la taille de l’échantillon croit. Pour le cas particulier où tous les agents ont toutes les compétences (un seul groupe d’agents), nous concevons trois méthodes d’optimisation basées sur la simulation pour le problème de moyenne échantillonnale. Étant donné un niveau initial de personnel, nous augmentons le nombre d’agents pour les périodes où les contraintes sont violées, et nous diminuons le nombre d’agents pour les périodes telles que les contraintes soient toujours satisfaites après cette réduction. Des expériences numériques sont menées sur plusieurs modèles de centre d’appels à faible occupation, au cours desquelles les algorithmes donnent de bonnes solutions, i.e. la plupart des contraintes en probabilité sont satisfaites, et nous ne pouvons pas réduire le personnel dans une période donnée sont introduire de violation de contraintes. Un avantage de ces algorithmes, par rapport à d’autres méthodes, est la facilité d’implémentation.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]

Relevância:

80.00% 80.00%

Publicador:

Resumo:

In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

El presente trabajo de grado busca optimizar el proceso de Picking en la empresa productora de lentes oftálmicos Compulens y Llanes LTDA, para disminuir tiempos y agilizar la operación. Se utilizarán herramientas vistas a lo largo del pregrado de Administración en Logística y Producción, para realizar un análisis profundo del estado actual del proceso y el Layout de la bodega, para después aplicar herramientas propias de la investigación de operaciones, logística interna, entre otras, y proponer soluciones para conseguir los resultados esperados. Se partirá de un análisis de todos los tipos de bases para lentes oftálmicos que se tallan en la empresa, para plantear mejoras y buenas prácticas en los procesos que se llevan a cabo dentro de la bodega de almacenamiento. Dichas mejoras y recomendaciones tienen como finalidad ayudar a la empresa a cumplir la promesa de servicio a los clientes y evitar el atraso en la entrega de pedidos.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

Wednesday 23rd April 2014 Speaker(s): Willi Hasselbring Organiser: Leslie Carr Time: 23/04/2014 14:00-15:00 Location: B32/3077 File size: 802Mb Abstract The internal behavior of large-scale software systems cannot be determined on the basis of static (e.g., source code) analysis alone. Kieker provides complementary dynamic analysis capabilities, i.e., monitoring/profiling and analyzing a software system's runtime behavior. Application Performance Monitoring is concerned with continuously observing a software system's performance-specific runtime behavior, including analyses like assessing service level compliance or detecting and diagnosing performance problems. Architecture Discovery is concerned with extracting architectural information from an existing software system, including both structural and behavioral aspects like identifying architectural entities (e.g., components and classes) and their interactions (e.g., local or remote procedure calls). In addition to the Architecture Discovery of Java systems, Kieker supports Architecture Discovery for other platforms, including legacy systems, for instance, inplemented in C#, C++, Visual Basic 6, COBOL or Perl. Thanks to Kieker's extensible architecture it is easy to implement and use custom extensions and plugins. Kieker was designed for continuous monitoring in production systems inducing only a very low overhead, which has been evaluated in extensive benchmark experiments. Please, refer to http://kieker-monitoring.net/ for more information.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

La gestión de inventarios es uno de los grandes retos que afrontan las empresas hoy en día, especialmente aquellas que manipulan productos con altas probabilidades de daños y averías, razón por la cual definir políticas o un sistema de gestión de inventarios garantizaría una perdurabilidad y sostenibilidad en el mercado más prolongada. Es por ello que el proyecto planteado a continuación desarrollado en la empresa Diageo, multinacional de consumo masivo del sector licores, está inscrito en la línea de investigación de Gerencia de la Universidad del Rosario. De esta manera, bajo el programa de Áreas funcionales para la dirección que cuenta con un enfoque en perdurabilidad empresarial, la línea de investigación en Gerencia busca generar conocimientos sobre finanzas, mercadeo, operaciones y gestión humana. Por lo anterior, partiendo de la premisa de que una empresa perdurable es aquella que “adecúa su manejo a la intensidad de las condiciones del entorno sectorial y las fuerzas del mercado” (Leal, Guerrero, Rojas, & Rivera, 2011), se hace necesario orientar los recursos y esfuerzos de la empresa hacia una nueva política de inventarios en el portafolio de vinos, de modo que al incrementar el nivel de servicio se afecten positivamente indicadores de rentabilidad y liquidez.

Relevância:

80.00% 80.00%

Publicador:

Resumo:

A full assessment of para-­virtualization is important, because without knowledge about the various overheads, users can not understand whether using virtualization is a good idea or not. In this paper we are very interested in assessing the overheads of running various benchmarks on bare-­‐metal, as well as on para-­‐virtualization. The idea is to see what the overheads of para-­‐ virtualization are, as well as looking at the overheads of turning on monitoring and logging. The knowledge from assessing various benchmarks on these different systems will help a range of users understand the use of virtualization systems. In this paper we assess the overheads of using Xen, VMware, KVM and Citrix, see Table 1. These different virtualization systems are used extensively by cloud-­‐users. We are using various Netlib1 benchmarks, which have been developed by the University of Tennessee at Knoxville (UTK), and Oak Ridge National Laboratory (ORNL). In order to assess these virtualization systems, we run the benchmarks on bare-­‐metal, then on the para-­‐virtualization, and finally we turn on monitoring and logging. The later is important as users are interested in Service Level Agreements (SLAs) used by the Cloud providers, and the use of logging is a means of assessing the services bought and used from commercial providers. In this paper we assess the virtualization systems on three different systems. We use the Thamesblue supercomputer, the Hactar cluster and IBM JS20 blade server (see Table 2), which are all servers available at the University of Reading. A functional virtualization system is multi-­‐layered and is driven by the privileged components. Virtualization systems can host multiple guest operating systems, which run on its own domain, and the system schedules virtual CPUs and memory within each Virtual Machines (VM) to make the best use of the available resources. The guest-­‐operating system schedules each application accordingly. You can deploy virtualization as full virtualization or para-­‐virtualization. Full virtualization provides a total abstraction of the underlying physical system and creates a new virtual system, where the guest operating systems can run. No modifications are needed in the guest OS or application, e.g. the guest OS or application is not aware of the virtualized environment and runs normally. Para-­‐virualization requires user modification of the guest operating systems, which runs on the virtual machines, e.g. these guest operating systems are aware that they are running on a virtual machine, and provide near-­‐native performance. You can deploy both para-­‐virtualization and full virtualization across various virtualized systems. Para-­‐virtualization is an OS-­‐assisted virtualization; where some modifications are made in the guest operating system to enable better performance. In this kind of virtualization, the guest operating system is aware of the fact that it is running on the virtualized hardware and not on the bare hardware. In para-­‐virtualization, the device drivers in the guest operating system coordinate the device drivers of host operating system and reduce the performance overheads. The use of para-­‐virtualization [0] is intended to avoid the bottleneck associated with slow hardware interrupts that exist when full virtualization is employed. It has revealed [0] that para-­‐ virtualization does not impose significant performance overhead in high performance computing, and this in turn this has implications for the use of cloud computing for hosting HPC applications. The “apparent” improvement in virtualization has led us to formulate the hypothesis that certain classes of HPC applications should be able to execute in a cloud environment, with minimal performance degradation. In order to support this hypothesis, first it is necessary to define exactly what is meant by a “class” of application, and secondly it will be necessary to observe application performance, both within a virtual machine and when executing on bare hardware. A further potential complication is associated with the need for Cloud service providers to support Service Level Agreements (SLA), so that system utilisation can be audited.