928 resultados para service level management
Resumo:
Joukkoliikenteen palvelutasomäärittely perustuu vuonna 2009 voimaan astuneeseen joukkoliikennelakiin, joka velvoitti toimivaltaisia viranomaisia määrittelemään toimivalta-alueensa joukkoliikenteelle tavoitteellisen palvelutason vuoden 2011 loppuun mennessä. Palvelutaso määriteltiin Liikenneviraston kriteeristön mukaisesti. Määrittelytyön aikana Keski-Uudellamaalla nousi esiin hiljaisen ajan liikenteen tarjonnan heikkous palvelutasotavoitteisiin nähden. Hiljaisena aikana liikenteen kysyntä on vähäistä. Liikenteen hoitaminen on kuitenkin kallista eikä se onnistu nykyisin ilman yhteiskunnan tukea. Tämän työn tarkoituksena oli selvittää hiljaisen ajan merkitystä joukkoliikenteen käyttöön yleensä, kustannustehokkainta tapaa hoitaa joukkoliikenne hiljaisena aikana ja sitä miten palvelutasotavoitteita tulee miettiä tarkemmin hiljaisen ajan osalta. Työssä tarkasteltiin kolmea Keski-Uudenmaan taajamaa, ja esitettiin näille ratkaisut hiljaisen ajan liikenteen hoitamisesta. Nykyiset palvelutasokriteerit on määritetty ruuhkalähtöisesti. Tämän tutkimuksen perusteella voidaan suositella, että liikenteen suunnittelussa olisi syytä siirtyä runkoajatteluun. Suunnittelun tulisi lähteä välttämättömistä vuoroista eli vuoroista, joilla taataan sujuva arki joukkoliikennettä käyttämällä. Lähtökohtana tulisi siis olla hiljaisin aika eli keskikesä. Tämän liikenteen rungon päälle voidaan rakentaa täydentävää liikennettä tarpeen eli kysynnän mukaan. Keski-Uudellamaalla hiljaisen ajan liikenteen ja myös liikenteen rungon tulisi muodostua juna-asemille ajettavasta liityntäliikenteestä. Johtopäätöksissä esitetään tarpeet palvelutasokriteerien tarkistamisesta ja lisätutkimuksista. Suurimmat tarkistustarpeet ovat määrällisissä kriteereissä, mutta hiljaisena aikana korostuvat myös laadulliset kriteerit: informaatio ja yhtenäinen lippujärjestelmä.
Resumo:
Pelastuslaitosten liiketoimintatiedonhallinnalla, tietoperusteisuudella ja tietojohtamisella on tulevaisuudessa merkittävä rooli päätettäessä palveluista. Julkisen pelastustoimen kuntien liikelaitoksina ja eriytettyinä taseyksiköinä toimivien pelastuslaitosten haasteet tulevat olemaan jatkossa tehokkaiden ja vaikuttavien palveluiden strategisessa johtamisessa ja suunnittelussa. Näistä asioista päättäminen on kriittinen vaihe onnistumisen kannalta. Päätöksenteko eri tasoilla tarvitsee tuekseen toiminnasta ja palveluista kanavoitua analysoitua tietoa. Asiakastarpeesta lähtevä vaikuttavuus ja laatu korostuvat. Liiketoimintatiedonhallinta ja tietoperusteisuus haastavat pelastuslaitoksen johtamisjärjestelmän. Johtamisen kyvykkyys ja henkilöstön osaaminen ovat tietoperusteisuuden ja tiedonhallinnan keskiössä. Systemaattisen liiketoimintatiedonhallinnan ja tietoperusteisuuden erottaa perinteisestä virkamiehen tietojen hyväksikäytöstä käsitteen kokonaisvaltaisuus ja järjestelmällisyys kaikessa tiedollisessa toiminnassa. Tämä kattaa tietojärjestelmät, mittarit, prosessit, strategian suunnitelmat, asiakirjat, raportoinnin, kehittämisen ja tutkimuksen. Liiketoimin-tatiedonhallinta ja tietojohtaminen linkittävät kaiken toisiinsa muodostaen keskinäisriippuvaisen yhtenäisen järjestelmän ja kokonaisvaltaisen ymmärryksen. Tutkimukseni on laadullinen tutkimus jossa tiedon keruu ja analysointi on toteutettu toisiaan tukevilla tutkimusotteilla. Metodologia nojaa teorialähtöiseen systemaattiseen analyysiin, jossa on valikoituja osia sisällön analyysistä. Tutkimuksessa on käytetty aineisto- ja menetelmätriangulaatioita. Tutkimuksen aineisto on kerätty teemahaastatteluilla valittujen kohde pelastuslaitosten asiantuntijoilta palveluiden päätös- ja suunnittelutasolta, johtoryhmistä ja joh-tokunnista. Haastatteluja varten tutkija on tutustunut kohdepelastuslaitosten palveluita mää-rittävään tiedolliseen dokumentaatioon kuten palvelutasopäätöksiin ja riskianalyyseihin. Ai-neisto keruun kohteiksi valikoitui pääkaupunkiseudun alueen pelastuslaitokset: Helsingin kaupungin pelastuslaitos sekä Itä-, Keski- ja Länsi-Uudenmaan pelastuslaitokset. Tulosten mukaan pelastuslaitosten keskeiset liiketoimintatiedonhallinnan esteet muodostuvat johtamisen ongelmista, organisaation muutosvastarinnasta ja päätöksenteon tietoperusteen puutteesta. Nämä ilmenevät strategisen johtamisen puutteina, vaikuttavuuden mittaamisen sekä tiedon jalostamisen ongelmina. Keskeistä tiedollista yhdistävää ja linkittävää tekijää ei tunnisteta ja löydetä. Tiedollisessa liiketoimintatiedonhallinnan prosessityössä voisi olla tulos-ten mukaan mahdollisuuksia tämän tyhjiön täyttämiseen. Pelastuslaitoksille jää tulevaisuudessa valinta suunnasta johon ne haluavat edetä tiedonhal-linnan, tietojohtamisen ja tietoperusteisuuden kanssa. Tämä vaikuttaa kehitykseen ja tavoitteeseen keskeisistä palveluiden päätöksentekoa tukevista johtamis- ja tietojärjestelmistä, tietoa kokoavista ja luovista dokumenteista sekä organisaation joustavasta rakenteesta. Tietoprosessiin, tiedon prosessimaiseen johtamiseen ja systemaattiseen tiedonhallintaan meneminen vaikuttaa tutkimuksen tulosten mukaan lupaavalta mahdollisuudelta. Samalla se haastaa pelauslaitokset suureen kulttuuriseen muutokseen ja asettaa uusien vaikuttavuusmittareiden tuottaman tiedon ennakoivan hyväksynnän vaateen strategiselle suunnittelulle. Tämä vaatii pelastuslaitosten johdolta ja henkilöstöltä osaamista, yhteisymmärrystä, muutostarpeiden hyväksyntää sekä asiakkaan asettamista vaikuttavuuden keskiöön.
Resumo:
The objective of this project was to introduce a new software product to pulp industry, a new market for case company. An optimization based scheduling tool has been developed to allow pulp operations to better control their production processes and improve both production efficiency and stability. Both the work here and earlier research indicates that there is a potential for savings around 1-5%. All the supporting data is available today coming from distributed control systems, data historians and other existing sources. The pulp mill model together with the scheduler, allows what-if analyses of the impacts and timely feasibility of various external actions such as planned maintenance of any particular mill operation. The visibility gained from the model proves also to be a real benefit. The aim is to satisfy demand and gain extra profit, while achieving the required customer service level. Research effort has been put both in understanding the minimum features needed to satisfy the scheduling requirements in the industry and the overall existence of the market. A qualitative study was constructed to both identify competitive situation and the requirements vs. gaps on the market. It becomes clear that there is no such system on the marketplace today and also that there is room to improve target market overall process efficiency through such planning tool. This thesis also provides better overall understanding of the different processes in this particular industry for the case company.
Resumo:
Tutkimuksen tarkoituksena oli löytää suunnitteluliiketoiminnan palvelutuotteiden strategisen johdon käyttöön soveltuva menetelmä, tai työkalu, jonka avulla palvelutuotteiden kilpailukykyä ja kehitystarpeita voidaan helposti arvioida. Diplomityö pitää sisällään kolme tutkimuskysymystä. Ensimmäisellä tutkimuskysymyksellä pyritään keräämään tietoa suunnitteluorganisaation taustalla vaikuttavista menestystekijöistä. Toisen tutkimuskysymyksen avulla pyrittiin löytämään työkalu, tai menetelmä, palvelutuotteiden strategisen johdon käyttöön, tai sellaisen muodostamisen pohjaksi. Kolmas tutkimuskysymys liittyi suunnittelupalveluiden strategisen johtamisen työkalun muodostamiseen. Tutkimuksen tuloksena tuotettiin suunnitteluorganisaation palvelutuotteiden johtamisen viitekehys. Viitekehyksessä palvelutuotteet lajitellaan havainnolliselle luokittelutaululle, jossa pystykoordinaattina käytetään palvelutuotteen markkinoiden houkuttelevuutta ja vaakakoordinaattina palvelutuotteen vahvuutta organisaatiossa. Tutkimuksessa on esitetty suunnitteluliiketoiminnan strategisen johtamisen onnistumisessa vaikuttavat taustatekijät, markkinoiden houkuttelevuuden keskeisimmät mittarit, sekä suunnittelupalveluiden vahvuutta kuvaavat tekijät.
Resumo:
FTTH-liityntäverkkoja voivat rakennuttaa ja omistaa perinteisten teleoperaattoreiden lisäksi myös muut toimijat, kuten sähköyhtiöt, valtion- ja kuntien omistamat yhtiöt ja yksityiset osuuskunnat. Markkinatoimijoiden ja eri teknologioiden keskinäinen kilpailu johtaa kuitenkin helposti pieniin liityntätiheyksiin ja hajanaisiin pieniin verkkoihin. Tämä tekee verkkojen kannattavasta rakentamisesta vaikeaa ja palvelujen toteuttamisesta tehotonta. Tilannetta voidaan parantaa tasapuolisella pääsyllä, joka selkeyttää arvoketjun osapuolten rooleja. Diplomityön tavoitteena oli kuvata kommunikaatio-operaattorin rooli Suomen telemarkkinaan ja rakentaa sille taloudellisesti kannattava liiketoimintamalli toisen osapuolen toteuttamiin tasapuolisen pääsyn FTTH-verkkoihin. Työ toteutettiin hyödyntäen konstruktiivista tutkimusotetta ja sen lopputuloksena syntyi soveltuva liiketoimintamalli. Kommunikaatio-operaattorin kaksipuolisella alustalla yhdistetään valtakunnallisesti toisiinsa palveluntarjoajat ja alueellisiin liityntäverkkoihin liittyneet loppuasiakkaat. Kommunikaatio-operaattorin liiketoimintamalli mahdollistaa kapasiteetin, palvelunlaadun ja toimintavarmuuden suhteen erilaistetut virtuaaliset tukkutuotteet ja sitä kautta mahdollisuuden uuteen ansaintaan.
Resumo:
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
Resumo:
L’infonuage est un nouveau paradigme de services informatiques disponibles à la demande qui a connu une croissance fulgurante au cours de ces dix dernières années. Le fournisseur du modèle de déploiement public des services infonuagiques décrit le service à fournir, le prix, les pénalités en cas de violation des spécifications à travers un document. Ce document s’appelle le contrat de niveau de service (SLA). La signature de ce contrat par le client et le fournisseur scelle la garantie de la qualité de service à recevoir. Ceci impose au fournisseur de gérer efficacement ses ressources afin de respecter ses engagements. Malheureusement, la violation des spécifications du SLA se révèle courante, généralement en raison de l’incertitude sur le comportement du client qui peut produire un nombre variable de requêtes vu que les ressources lui semblent illimitées. Ce comportement peut, dans un premier temps, avoir un impact direct sur la disponibilité du service. Dans un second temps, des violations à répétition risquent d'influer sur le niveau de confiance du fournisseur et sur sa réputation à respecter ses engagements. Pour faire face à ces problèmes, nous avons proposé un cadre d’applications piloté par réseau bayésien qui permet, premièrement, de classifier les fournisseurs dans un répertoire en fonction de leur niveau de confiance. Celui-ci peut être géré par une entité tierce. Un client va choisir un fournisseur dans ce répertoire avant de commencer à négocier le SLA. Deuxièmement, nous avons développé une ontologie probabiliste basée sur un réseau bayésien à entités multiples pouvant tenir compte de l’incertitude et anticiper les violations par inférence. Cette ontologie permet de faire des prédictions afin de prévenir des violations en se basant sur les données historiques comme base de connaissances. Les résultats obtenus montrent l’efficacité de l’ontologie probabiliste pour la prédiction de violation dans l’ensemble des paramètres SLA appliqués dans un environnement infonuagique.
Resumo:
Die Technologie dienstorientierter Architekturen (Service-oriented Architectures, kurz SOA) weckt große Visionen auf Seiten der Industrie wie auch der Forschung. Sie hat sich als derzeit ideale Lösung für Umgebungen, in denen sich die Anforderungen an die IT-Bedürfnisse rapide ändern, erwiesen. Heutige IT-Systeme müssen Managementaufgaben wie Softwareinstallation, -anpassung oder -austausch erlauben, ohne dabei den laufenden Betrieb wesentlich zu stören. Die dafür nötige Flexibilität bieten dienstorientierte Architekturen, in denen Softwarekomponenten in Form von Diensten zur Verfügung stehen. Ein Dienst bietet über seine Schnittstelle lokalen wie entfernten Applikationen einen Zugang zu seiner Funktionalität. Wir betrachten im Folgenden nur solche dienstorientierte Architekturen, in denen Dienste zur Laufzeit dynamisch entdeckt, gebunden, komponiert, verhandelt und adaptiert werden können. Eine Applikation kann mit unterschiedlichen Diensten arbeiten, wenn beispielsweise Dienste ausfallen oder ein neuer Dienst die Anforderungen der Applikation besser erfüllt. Eine unserer Grundvoraussetzungen lautet somit, dass sowohl das Dienstangebot als auch die Nachfrageseite variabel sind. Dienstorientierte Architekturen haben besonderes Gewicht in der Implementierung von Geschäftsprozessen. Im Rahmen des Paradigmas Enterprise Integration Architecture werden einzelne Arbeitsschritte als Dienste implementiert und ein Geschäftsprozess als Workflow von Diensten ausgeführt. Eine solche Dienstkomposition wird auch Orchestration genannt. Insbesondere für die so genannte B2B-Integration (Business-to-Business) sind Dienste das probate Mittel, um die Kommunikation über die Unternehmensgrenzen hinaus zu unterstützen. Dienste werden hier in der Regel als Web Services realisiert, welche vermöge BPEL4WS orchestriert werden. Der XML-basierte Nachrichtenverkehr und das http-Protokoll sorgen für eine Verträglichkeit zwischen heterogenen Systemen und eine Transparenz des Nachrichtenverkehrs. Anbieter dieser Dienste versprechen sich einen hohen Nutzen durch ihre öffentlichen Dienste. Zum einen hofft man auf eine vermehrte Einbindung ihrer Dienste in Softwareprozesse. Zum anderen setzt man auf das Entwickeln neuer Software auf Basis ihrer Dienste. In der Zukunft werden hunderte solcher Dienste verfügbar sein und es wird schwer für den Entwickler passende Dienstangebote zu finden. Das Projekt ADDO hat in diesem Umfeld wichtige Ergebnisse erzielt. Im Laufe des Projektes wurde erreicht, dass der Einsatz semantischer Spezifikationen es ermöglicht, Dienste sowohl im Hinblick auf ihre funktionalen als auch ihre nicht-funktionalen Eigenschaften, insbesondere die Dienstgüte, automatisch zu sichten und an Dienstaggregate zu binden [15]. Dazu wurden Ontologie-Schemata [10, 16], Abgleichalgorithmen [16, 9] und Werkzeuge entwickelt und als Framework implementiert [16]. Der in diesem Rahmen entwickelte Abgleichalgorithmus für Dienstgüte beherrscht die automatische Aushandlung von Verträgen für die Dienstnutzung, um etwa kostenpflichtige Dienste zur Dienstnutzung einzubinden. ADDO liefert einen Ansatz, Schablonen für Dienstaggregate in BPEL4WS zu erstellen, die zur Laufzeit automatisch verwaltet werden. Das Vorgehen konnte seine Effektivität beim internationalen Wettbewerb Web Service Challenge 2006 in San Francisco unter Beweis stellen: Der für ADDO entwickelte Algorithmus zur semantischen Dienstkomposition erreichte den ersten Platz. Der Algorithmus erlaubt es, unter einer sehr großenMenge angebotener Dienste eine geeignete Auswahl zu treffen, diese Dienste zu Dienstaggregaten zusammenzufassen und damit die Funktionalität eines vorgegebenen gesuchten Dienstes zu leisten. Weitere Ergebnisse des Projektes ADDO wurden auf internationalen Workshops und Konferenzen veröffentlicht. [12, 11]
Resumo:
In dieser Arbeit wird ein Verfahren zum Einsatz neuronaler Netzwerke vorgestellt, das auf iterative Weise Klassifikation und Prognoseschritte mit dem Ziel kombiniert, bessere Ergebnisse der Prognose im Vergleich zu einer einmaligen hintereinander Ausführung dieser Schritte zu erreichen. Dieses Verfahren wird am Beispiel der Prognose der Windstromerzeugung abhängig von der Wettersituation erörtert. Eine Verbesserung wird in diesem Rahmen mit einzelnen Ausreißern erreicht. Verschiedene Aspekte werden in drei Kapiteln diskutiert: In Kapitel 1 werden die verwendeten Daten und ihre elektronische Verarbeitung vorgestellt. Die Daten bestehen zum einen aus Windleistungshochrechnungen für die Bundesrepublik Deutschland der Jahre 2011 und 2012, welche als Transparenzanforderung des Erneuerbaren Energiegesetzes durch die Übertragungsnetzbetreiber publiziert werden müssen. Zum anderen werden Wetterprognosen, die der Deutsche Wetterdienst im Rahmen der Grundversorgung kostenlos bereitstellt, verwendet. Kapitel 2 erläutert zwei aus der Literatur bekannte Verfahren - Online- und Batchalgorithmus - zum Training einer selbstorganisierenden Karte. Aus den dargelegten Verfahrenseigenschaften begründet sich die Wahl des Batchverfahrens für die in Kapitel 3 erläuterte Methode. Das in Kapitel 3 vorgestellte Verfahren hat im modellierten operativen Einsatz den gleichen Ablauf, wie eine Klassifikation mit anschließender klassenspezifischer Prognose. Bei dem Training des Verfahrens wird allerdings iterativ vorgegangen, indem im Anschluss an das Training der klassenspezifischen Prognose ermittelt wird, zu welcher Klasse der Klassifikation ein Eingabedatum gehören sollte, um mit den vorliegenden klassenspezifischen Prognosemodellen die höchste Prognosegüte zu erzielen. Die so gewonnene Einteilung der Eingaben kann genutzt werden, um wiederum eine neue Klassifikationsstufe zu trainieren, deren Klassen eine verbesserte klassenspezifisch Prognose ermöglichen.
Resumo:
Wednesday 23rd April 2014 Speaker(s): Willi Hasselbring Organiser: Leslie Carr Time: 23/04/2014 14:00-15:00 Location: B32/3077 File size: 802Mb Abstract The internal behavior of large-scale software systems cannot be determined on the basis of static (e.g., source code) analysis alone. Kieker provides complementary dynamic analysis capabilities, i.e., monitoring/profiling and analyzing a software system's runtime behavior. Application Performance Monitoring is concerned with continuously observing a software system's performance-specific runtime behavior, including analyses like assessing service level compliance or detecting and diagnosing performance problems. Architecture Discovery is concerned with extracting architectural information from an existing software system, including both structural and behavioral aspects like identifying architectural entities (e.g., components and classes) and their interactions (e.g., local or remote procedure calls). In addition to the Architecture Discovery of Java systems, Kieker supports Architecture Discovery for other platforms, including legacy systems, for instance, inplemented in C#, C++, Visual Basic 6, COBOL or Perl. Thanks to Kieker's extensible architecture it is easy to implement and use custom extensions and plugins. Kieker was designed for continuous monitoring in production systems inducing only a very low overhead, which has been evaluated in extensive benchmark experiments. Please, refer to http://kieker-monitoring.net/ for more information.
Resumo:
Se busca ver cuál es el uso que las organizaciones hacen del concepto y estrategias comunitarias mediante el marketing; aunque existen varias formas de fidelizar el cliente, en el sector de comercio al por mayor, se vio una gran dificultad de acercarse al consumidor. Una de las formas más fáciles y efectivas de hacerlo es por medio de comunidades ya que elimina las barreras de mercado y crea vínculos entre cliente-empresa. Para esto se utilizó el análisis de caso, seleccionando una organización de relevancia en el sector de venta al por mayor. En dicha organización no se encontró el uso de la relación estratégica comunitaria de forma directa, aunque se vio un interés en incorporarlo; esto se evaluó mediante fuentes de evidencia, tales como entrevistas, informes financieros de la compañía, documentos que proporciono la organizaciones, pagina web e información del comercio de venta al por mayor y fundamentación teórica para realizar un óptimo análisis. A la empresa se le recomienda incorporar en sus planes estratégicos la relación estratégica comunitaria; esto ayudaría a eliminar barreras de mercado, identificar las necesidades o nuevos nichos de mercado.
Resumo:
Este trabajo de investigación se desarrolló con el fin de buscar alternativas de mejora para la operación de despacho de repuestos hacia los concesionarios del Centro de Distribución de Repuestos de GM Colmotores, investigando posibles formas para mantener y aumentar los estándares de productividad de este CEDI, mientras se mitiga la variabilidad de los despachos derivada de la inestabilidad de la demanda de los concesionarios y sus clientes.
Resumo:
El trabajo de oficina y, específicamente, el trabajo con computador se realizan en períodos prolongados de trabajo estático, lo que se asocia con el desarrollo de desordenes músculo esqueléticos. En consecuencia, los autores desarrollaron un estudio transversal, a partir de la evaluación de trabajadores de oficina (n=377) de una empresa dedicada a actividades de servicio4(gestión de información y atención al cliente), con el objetivo de explorar la relación entre la estructura del trabajo, la naturaleza de las tareas y la presencia de problemas osteomusculares e identificar los principios de una estrategia que estimule la transición postural. La información se recolectó a través de un formulario que indagó sobre variables relativas al tipo de cargo que desempeña el trabajador, el tiempo dedicado a actividades informáticas, incapacidades, antecedentes médicos y sintomatología actual. Como principales antecedentes médicos en la población evaluada se encontró: hipertensión arterial (HTA), 8%; dislipidemia, 23%; diabetes, 3%, e hipoglicemia, 4%. En los trabajadores evaluados se encontró que el 80% refiere dolor, específicamente relativo al miembro superior: manos, 26%; codos, 3%, y hombros, 4%. En columna cervical, 32%; lumbar, 16%, y dorsal, 6%. Finalmente, se evidenció que el 80% del tiempo laboral del personal estudiado es empleado en actividades de trabajo estáticas, dedicadas en su mayoría a la digitación de datos. Los resultados de este estudio se aplican al desarrollo de principios para el diseño de tareas y de una estrategia que busca potenciar las transiciones de postura en el trabajo.
Resumo:
En este proyecto analizaremos como las organizaciones se relacionan con el medio y marketing. La idea es determinar cuáles son los métodos de análisis de las comunidades de clientes mediante la relación estratégica comunitaria y el marketing. Por medio del mercadeo se puede conocer el entorno y determinar qué métodos de análisis utilizar para conocer a la comunidad de clientes. Las personas de mercadeo se ocupan de todo lo que ocurre en el entorno, de estar al tanto para saber cuándo hay oportunidades que puedan ser provechosas para la organización o por otro lado cuando hay amenazas de las que debe tener cuidado. Dependiendo del entorno, la organización diseña sus actividades de mercadeo enfocadas en satisfacer las necesidades del consumidor. Las actividades del consumidor se conceptualizan en producto, precio, promoción y plaza que se definen y diseñan basados en la comunidad en la que este inmersa la organización. Es importante buscar información confiable sobre el grupo objetivo al cual se le va ofrecer el producto o servicio, ya que toca analizarlos y comprender a estas personas para diseñar una buena oferta que satisfaga sus necesidades y deseos. Esta persona que recibe el producto o servicio por parte de la organización es el cliente. Los clientes son las personas que llegan a una organización en búsqueda de satisfacer necesidades a través de los bienes y servicios que las empresas ofrecen. Es esencial determinar que los clientes viven en comunidad, es decir comparten ideas por la comunicación tan estrecha que tienen y viven en conjunto bajo las mismas costumbres. Debido a estos es que hoy en día, los consumidores se conglomeran en comunidades de clientes, y para saberles llegar a estos clientes, toca analizarlos por medio de diversos métodos. El uso de las estrategias comunitarias es necesario ya que por medio del marketing se analiza el entorno y se buscan los métodos para analizar a la comunidad de clientes, que comparten características y se analizan en conjunto no por individuo. Es necesario identificar los métodos para relacionarse con la comunidad de clientes, para poder acercarnos a estos y conocerlos bien, saber sus necesidades y deseos y ofrecerles productos y servicios de acuerdo a éstos. En la actualidad estos métodos no son muy comunes ni conocidos, es por esto que nuestro propósito es indagar e identificar estos métodos para saber analizar a las comunidades. En este proyecto se utilizara una metodología de estudio tipo teórico-conceptual buscando las fuentes de información necesarias para llevar a cabo nuestra investigación. Se considera trabajar con El Grupo de Investigación en Perdurabilidad Empresarial y se escogió la línea de gerencia ya que permite entrar en la sociedad del conocimiento, siendo capaces de identificar oportunidades gerenciales en el entorno. Es interesante investigar sobre estos métodos, ya que los clientes esperan un servicio excelente, atento y que se preocupe por ellos y sus necesidades.
Resumo:
A full assessment of para-virtualization is important, because without knowledge about the various overheads, users can not understand whether using virtualization is a good idea or not. In this paper we are very interested in assessing the overheads of running various benchmarks on bare-‐metal, as well as on para-‐virtualization. The idea is to see what the overheads of para-‐ virtualization are, as well as looking at the overheads of turning on monitoring and logging. The knowledge from assessing various benchmarks on these different systems will help a range of users understand the use of virtualization systems. In this paper we assess the overheads of using Xen, VMware, KVM and Citrix, see Table 1. These different virtualization systems are used extensively by cloud-‐users. We are using various Netlib1 benchmarks, which have been developed by the University of Tennessee at Knoxville (UTK), and Oak Ridge National Laboratory (ORNL). In order to assess these virtualization systems, we run the benchmarks on bare-‐metal, then on the para-‐virtualization, and finally we turn on monitoring and logging. The later is important as users are interested in Service Level Agreements (SLAs) used by the Cloud providers, and the use of logging is a means of assessing the services bought and used from commercial providers. In this paper we assess the virtualization systems on three different systems. We use the Thamesblue supercomputer, the Hactar cluster and IBM JS20 blade server (see Table 2), which are all servers available at the University of Reading. A functional virtualization system is multi-‐layered and is driven by the privileged components. Virtualization systems can host multiple guest operating systems, which run on its own domain, and the system schedules virtual CPUs and memory within each Virtual Machines (VM) to make the best use of the available resources. The guest-‐operating system schedules each application accordingly. You can deploy virtualization as full virtualization or para-‐virtualization. Full virtualization provides a total abstraction of the underlying physical system and creates a new virtual system, where the guest operating systems can run. No modifications are needed in the guest OS or application, e.g. the guest OS or application is not aware of the virtualized environment and runs normally. Para-‐virualization requires user modification of the guest operating systems, which runs on the virtual machines, e.g. these guest operating systems are aware that they are running on a virtual machine, and provide near-‐native performance. You can deploy both para-‐virtualization and full virtualization across various virtualized systems. Para-‐virtualization is an OS-‐assisted virtualization; where some modifications are made in the guest operating system to enable better performance. In this kind of virtualization, the guest operating system is aware of the fact that it is running on the virtualized hardware and not on the bare hardware. In para-‐virtualization, the device drivers in the guest operating system coordinate the device drivers of host operating system and reduce the performance overheads. The use of para-‐virtualization [0] is intended to avoid the bottleneck associated with slow hardware interrupts that exist when full virtualization is employed. It has revealed [0] that para-‐ virtualization does not impose significant performance overhead in high performance computing, and this in turn this has implications for the use of cloud computing for hosting HPC applications. The “apparent” improvement in virtualization has led us to formulate the hypothesis that certain classes of HPC applications should be able to execute in a cloud environment, with minimal performance degradation. In order to support this hypothesis, first it is necessary to define exactly what is meant by a “class” of application, and secondly it will be necessary to observe application performance, both within a virtual machine and when executing on bare hardware. A further potential complication is associated with the need for Cloud service providers to support Service Level Agreements (SLA), so that system utilisation can be audited.