950 resultados para management qualità TPL miglioramento efficienza efficacia process-oriented servizi


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The purpose of this thesis is to analyse activity-based costing (ABC) and possible modified versions ofit in engineering design context. The design engineers need cost information attheir decision-making level and the cost information should also have a strong future orientation. These demands are high because traditional management accounting has concentrated on the direct actual costs of the products. However, cost accounting has progressed as ABC was introduced late 1980s and adopted widely bycompanies in the 1990s. The ABC has been a success, but it has gained also criticism. In some cases the ambitious ABC systems have become too complex to build,use and update. This study can be called an action-oriented case study with some normative features. In this thesis theoretical concepts are assessed and allowed to unfold gradually through interaction with data from three cases. The theoretical starting points are ABC and theory of engineering design process (chapter2). Concepts and research results from these theoretical approaches are summarized in two hypotheses (chapter 2.3). The hypotheses are analysed with two cases (chapter 3). After the two case analyses, the ABC part is extended to cover alsoother modern cost accounting methods, e.g. process costing and feature costing (chapter 4.1). The ideas from this second theoretical part are operationalized with the third case (chapter 4.2). The knowledge from the theory and three cases is summarized in the created framework (chapter 4.3). With the created frameworkit is possible to analyse ABC and its modifications in the engineering design context. The framework collects the factors that guide the choice of the costing method to be used in engineering design. It also illuminates the contents of various ABC-related costing methods. However, the framework needs to be further tested. On the basis of the three cases it can be said that ABC should be used cautiously when formulating cost information for engineering design. It is suitable when the manufacturing can be considered simple, or when the design engineers are not cost conscious, and in the beginning of the design process when doing adaptive or variant design. If the design engineers need cost information for the embodiment or detailed design, or if manufacturing can be considered complex, or when design engineers are cost conscious, the ABC has to be always evaluated critically.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Thisthesis supplements the systematic approach to competitive intelligence and competitor analysis by introducing an information-processing perspective on management of the competitive environment and competitors therein. The cognitive questions connected to the intelligence process and also the means that organizational actors use in sharing information are discussed. The ultimate aim has been to deepen knowledge of the different intraorganizational processes that are used in acorporate organization to manage and exploit the vast amount of competitor information that is received from the environment. Competitor information and competitive knowledge management is examined as a process, where organizational actorsidentify and perceive the competitive environment by using cognitive simplification, make interpretations resulting in learning and finally utilize competitor information and competitive knowledge in their work processes. The sharing of competitive information and competitive knowledge is facilitated by intraorganizational networks that evolve as a means of developing a shared, organizational level knowledge structure and ensuring that the right information is in the right place at the right time. This thesis approaches competitor information and competitive knowledge management both theoretically and empirically. Based on the conceptual framework developed by theoretical elaboration, further understanding of the studied phenomena is sought by an empirical study. The empirical research was carried out in a multinationally operating forest industry company. This thesis makes some preliminary suggestions of improving the competitive intelligence process. It is concluded that managing competitor information and competitive knowledge is not simply a question of managing information flow or improving sophistication of competitor analysis, but the crucial question to be solved is rather, how to improve the cognitive capabilities connected to identifying and making interpretations of the competitive environment and how to increase learning. It is claimed that competitive intelligence can not be treated like an organizational function or assigned solely to a specialized intelligence unit.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Lisääntynyt Balanced Scorecardin käyttö herätti kiinnostuksen tutkia, mistä BSC:ssä oli oikein kysymys. Epäonnistumiset BSC-projekteissa vaikuttivat siihen, että haluttiin tutkia, mikä nykyisissä projektimalleissa oli vikana. Kirjallisuudessa on esitetty useita BSC:n käyttöönoton projektimalleja, joista tunnetuin on Kaplanin ja Nortonin kehittämä malli. Alun perin kyseessä oli varsin operatiivinen suoritusmittaristo, jonka tavoitteena oli nostaa ei-taloudelliset mittarit taloudellisten mittareiden rinnalle. Sittemmin lähestymistapa onlaajentunut strategiapohjaiseksi johtamisen järjestelmäksi, mutta mallin rakentamisessa on vielä puutteita. Havaitut puutteet BSC-projektimalleissa loivat tarpeen uuden mallin kehittämiselle. Tutkimuksen tavoitteena oli kehittää suomalaisten yritysjohtajien ja alan asiantuntijoiden avulla BSC-projektimalli, jota käyttämällä yritykset voisivat menestyksekkäämmin toteuttaa BSC-projektinsa. Lisäksi tavoitteena oli selvittää BSC:n käytön nykytila Suomen 500 suurimmassa yrityksessä. Tutkimuksessa haluttiin myös hankkia tietoa siitä, miksi yritykset olivat lähteneet BSC-projektiin, mitkä tekijät vaikuttivat BSC-projektin onnistumiseen jamitä muutoksia yritykset olivat tehneet BSC:n käytännön kokemuksen pohjalta. Tutkimuksen teoriaosassa tarkasteltiin yrityksen strategista suunnittelua ja johtamista, yrityksen johtamisessa käytettyjä ohjausjärjestelmiä, toiminnan kehittämistä ja BSC-projektien toteuttamista. Tutkimuksen empiriisessä osassa kehitettiinkymmenvaiheinen BSC-projektin toteuttamismalli. Se tehtiin tutustumalla 15 konsultointiyrityksen tapaan toteuttaa BSC-projekti ja paneutumalla 50 yrityksen BSC-projektista saamiin kokemuksiin. Kehitettyä mallia testattiin Tulikivi-casessa,ja sitä arvioitiin kyselytutkimuksessa ja työistunnossa. Kyselytutkimuksen mukaan ensimmäiset suomalaiset yritykset aloittivat BSC:n käytön vuonna 1995. Vuonna1996 käyttö yleistyi jonkin verran, ja vuosia 1997 ja 1998 voidaan Suomessa kutsua BSC:n läpimurtovuosiksi. Vastanneista yrityksistä 23,2 % ilmoitti käyttävänsä BSC:tä. Yrityksistä 14,8 % oli ottamassa sitä käyttöön, ja 19,2 % harkitsi käyttöönottamista. Yritykset olivat lähteneet BSC-projektiin mm. paremman ohjausjärjestelmän, toiminnan tehostamisen ja muutoksen aikaansaamisen toivossa. BSC-projektin onnistumisen tärkeimpinä tekijöinä pidettiin johdon sitoutumista hankkeeseen, mittariston kytkeytymistä strategiaan ja mittareiden selkeyttä. BSC:n nähtiin vaikuttaneen yrityksissä eniten liiketoiminnan kokonaisuuden ymmärtämiseen, strategian toteutumiseen ja ei-taloudellisten asioiden seurantaan. Yrityksissä olimuutettu toimintaa mm. niin, että se suuntautuisi enemmän asiakkaisiin ja tulevaisuuteen. Tulevaisuudessa BSC:llä uskottiin olevan suurimmat vaikutukset kokonaisvaltaiseen ja strategiseen johtamiseen sekä strategian toteutumisen seurantaan. Kyselytutkimuksen perusteella voitiin osoittaa, että suuret yritykset käyttävät BSC:tä enemmän kuin pienet yritykset. Myös alueellisia eroja on: pääkaupunkiseudulla BSC:tä käytetään enemmän kuin muualla maassa. Mitä kannattavammaksi kyselyyn vastaaja arvioi yrityksensä, sitä parempana se piti tässä tutkimuksessa kehitettyä BSC-projektimallia verrattuna Kaplanin ja Nortonin kehittämään BSC-projektimalliin. BSC-projekti on niin kokonaisvaltainen, että sen onnistuminen edellyttää koko henkilöstön osallistuvan siihen. Ylimmän johdon aito sitoutuminen on välttämätöntä, jotta BSC-projekti saa riittävästi resursseja. Projektissa visio jastrategiat puretaan käytännön toimiksi, joten ilman ylimmän johdon mukanaoloa projektilla ei ole asiakasta. Keskijohto ja henkilöstö toteuttavat laaditut strategiat, jolloin heidän panoksensa on erittäin merkittävä projektin onnistumiseksi. Henkilöstö pitää saada osallistumaan mittaristotyöhön, jotta he sitoutuisivat asetettuihin tavoitteisiin. Ellei henkilöstöä saada mukaan, mittaristo jää helposti ylimmän johdon työkaluksi. Tällöin strategian toteuttaminen koko organisaatiossa on hyvin työlästä, jopa mahdotonta. Mittariston pitää olla strategialähtöinen, eikä se saa olla liian monimutkainen. Mitä alemmalle tasolle organisaatiossamennään, sitä yksinkertaisempi mittariston pitää olla. Ylimmillä tasoilla mittareita voi olla kahdeksasta kahteentoista, mutta alemmilla tasoilla niitä on oltava hieman vähemmän. Projektin nopea läpivienti yrityksessä ei saa olla itsetarkoitus, mutta nopeasti saadut konkreettiset tulokset auttavat, että projekti saa resursseja ja mahdollistavat palautteen saamisen ja oppimisen. Kerralla ei BSC:täsaada täydellisesti toimivaksi, vaan se on oppimisprosessi, joka mahdollistaa syvällisemmän strategian toteuttamiseen. Tässä tutkimuksessa kehitetty BSC-projektin toteuttamismalli perustuu kymmenien asiantuntijoiden kokemuksiin ja näkemyksiin BSC-projektin toteuttamisesta. Kyselytutkimuksesta, työistunnosta ja Tulikivi-casesta saadut tulokset osoittavat, että kehitetyn mallin avulla yrityksillä on entistä paremmat mahdollisuudet saada BSC-projekti onnistumaan. Näin tutkimuksen päätavoite saavutettiin. Muut tavoitteet saavutettiin kyselytutkimuksen tulosten avulla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Static process simulation has traditionally been used to model complex processes for various purposes. However, the use of static processsimulators for the preparation of holistic examinations aiming at improving profit-making capability requires a lot of work because the production of results requires the assessment of the applicability of detailed data which may be irrelevant to the objective. The relevant data for the total assessment gets buried byirrelevant data. Furthermore, the models do not include an examination of the maintenance or risk management, and economic examination is often an extra property added to them which can be performed with a spreadsheet program. A process model applicable to holistic economic examinations has been developed in this work. The model is based on the life cycle profit philosophy developed by Hagberg and Henriksson in 1996. The construction of the model has utilized life cycle assessment and life cycle costing methodologies with a view to developing, above all, a model which would be applicable to the economic examinations of complete wholes and which would require the need for information focusing on aspects essential to the objectives. Life cycle assessment and costing differ from each other in terms of the modeling principles, but the features of bothmethodologies can be used in the development of economic process modeling. Methods applicable to the modeling of complex processes can be examined from the viewpoint of life cycle methodologies, because they involve the collection and management of large corpuses of information and the production of information for the needs of decision-makers as well. The results of the study shows that on the basis of the principles of life cycle modeling, a process model can be created which may be used to produce holistic efficiency examinations on the profit-making capability of the production line, with fewer resources thanwith traditional methods. The calculations of the model are based to the maximum extent on the information system of the factory, which means that the accuracyof the results can be improved by developing information systems so that they can provide the best information for this kind of examinations.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Quality management has become a strategic issue for organisations and is very valuable to produce quality software. However, quality management systems (QMS) are not easy to implement and maintain. The authors' experience shows the benefits of developing a QMS by first formalising it using semantic web ontologies and then putting them into practice through a semantic wiki. The QMS ontology that has been developed captures the core concepts of a traditional QMS and combines them with concepts coming from the MPIu'a development process model, which is geared towards obtaining usable and accessible software products. Then, the ontology semantics is directly put into play by a semantics-aware tool, the Semantic MediaWiki. The developed QMS tool is being used for 2 years by the GRIHO research group, where it has manages almost 50 software development projects taking into account the quality management issues. It has also been externally audited by a quality certification organisation. Its users are very satisfied with their daily work with the tool, which manages all the documents created during project development and also allows them to collaborate, thanks to the wiki features.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Semantic Web technology is able to provide the required computational semantics for interoperability of learning resources across different Learning Management Systems (LMS) and Learning Object Repositories (LOR). The EU research project LUISA (Learning Content Management System Using Innovative Semantic Web Services Architecture) addresses the development of a reference semantic architecture for the major challenges in the search, interchange and delivery of learning objects in a service-oriented context. One of the key issues, highlighted in this paper, is Digital Rights Management (DRM) interoperability. A Semantic Web approach to copyright management has been followed, which places a Copyright Ontology as the key component for interoperability among existing DRM systems and other licensing schemes like Creative Commons. Moreover, Semantic Web tools like reasoners, rule engines and semantic queries facilitate the implementation of an interoperable copyright management component in the LUISA architecture.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The major task of policy makers and practitioners when confronted with a resource management problem is to decide on the potential solution(s) to adopt from a range of available options. However, this process is unlikely to be successful and cost effective without access to an independently verified and comprehensive available list of options. There is currently burgeoning interest in ecosystem services and quantitative assessments of their importance and value. Recognition of the value of ecosystem services to human well-being represents an increasingly important argument for protecting and restoring the natural environment, alongside the moral and ethical justifications for conservation. As well as understanding the benefits of ecosystem services, it is also important to synthesize the practical interventions that are capable of maintaining and/or enhancing these services. Apart from pest regulation, pollination, and global climate regulation, this type of exercise has attracted relatively little attention. Through a systematic consultation exercise, we identify a candidate list of 296 possible interventions across the main regulating services of air quality regulation, climate regulation, water flow regulation, erosion regulation, water purification and waste treatment, disease regulation, pest regulation, pollination and natural hazard regulation. The range of interventions differs greatly between habitats and services depending upon the ease of manipulation and the level of research intensity. Some interventions have the potential to deliver benefits across a range of regulating services, especially those that reduce soil loss and maintain forest cover. Synthesis and applications: Solution scanning is important for questioning existing knowledge and identifying the range of options available to researchers and practitioners, as well as serving as the necessary basis for assessing cost effectiveness and guiding implementation strategies. We recommend that it become a routine part of decision making in all environmental policy areas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La fabrication, la distribution et l'usage de fausses pièces d'identité constituent une menace pour la sécurité autant publique que privée. Ces faux documents représentent en effet un catalyseur pour une multitude de formes de criminalité, des plus anodines aux formes les plus graves et organisées. La dimension, la complexité, la faible visibilité, ainsi que les caractères répétitif et évolutif de la fraude aux documents d'identité appellent des réponses nouvelles qui vont au-delà d'une approche traditionnelle au cas par cas ou de la stratégie du tout technologique dont la perspective historique révèle l'échec. Ces nouvelles réponses passent par un renforcement de la capacité de comprendre les problèmes criminels que posent la fraude aux documents d'identité et les phénomènes qui l'animent. Cette compréhension est tout bonnement nécessaire pour permettre d'imaginer, d'évaluer et de décider les solutions et mesures les plus appropriées. Elle requière de développer les capacités d'analyse et la fonction de renseignement criminel qui fondent en particulier les modèles d'action de sécurité les plus récents, tels que l'intelligence-led policing ou le problem-oriented policing par exemple. Dans ce contexte, le travail doctoral adopte une position originale en postulant que les fausses pièces d'identité se conçoivent utilement comme la trace matérielle ou le vestige résultant de l'activité de fabrication ou d'altération d'un document d'identité menée par les faussaires. Sur la base de ce postulat fondamental, il est avancé que l'exploitation scientifique, méthodique et systématique de ces traces au travers d'un processus de renseignement forensique permet de générer des connaissances phénoménologiques sur les formes de criminalité qui fabriquent, diffusent ou utilisent les fausses pièces d'identité, connaissances qui s'intègrent et se mettent avantageusement au service du renseignement criminel. A l'appui de l'épreuve de cette thèse de départ et de l'étude plus générale du renseignement forensique, le travail doctoral propose des définitions et des modèles. Il décrit des nouvelles méthodes de profilage et initie la constitution d'un catalogue de formes d'analyses. Il recourt également à des expérimentations et des études de cas. Les résultats obtenus démontrent que le traitement systématique de la donnée forensique apporte une contribution utile et pertinente pour le renseignement criminel stratégique, opérationnel et tactique, ou encore la criminologie. Combiné aux informations disponibles par ailleurs, le renseignement forensique produit est susceptible de soutenir l'action de sécurité dans ses dimensions répressive, proactive, préventive et de contrôle. En particulier, les méthodes de profilage des fausses pièces d'identité proposées permettent de révéler des tendances au travers de jeux de données étendus, d'analyser des modus operandi ou d'inférer une communauté ou différence de source. Ces méthodes appuient des moyens de détection et de suivi des séries, des problèmes et des phénomènes criminels qui s'intègrent dans le cadre de la veille opérationnelle. Ils permettent de regrouper par problèmes les cas isolés, de mettre en évidence les formes organisées de criminalité qui méritent le plus d'attention, ou de produire des connaissances robustes et inédites qui offrent une perception plus profonde de la criminalité. Le travail discute également les difficultés associées à la gestion de données et d'informations propres à différents niveaux de généralité, ou les difficultés relatives à l'implémentation du processus de renseignement forensique dans la pratique. Ce travail doctoral porte en premier lieu sur les fausses pièces d'identité et leur traitement par les protagonistes de l'action de sécurité. Au travers d'une démarche inductive, il procède également à une généralisation qui souligne que les observations ci-dessus ne valent pas uniquement pour le traitement systématique des fausses pièces d'identité, mais pour celui de tout type de trace dès lors qu'un profil en est extrait. Il ressort de ces travaux une définition et une compréhension plus transversales de la notion et de la fonction de renseignement forensique. The production, distribution and use of false identity documents constitute a threat to both public and private security. Fraudulent documents are a catalyser for a multitude of crimes, from the most trivial to the most serious and organised forms. The dimension, complexity, low visibility as well as the repetitive and evolving character of the production and use of false identity documents call for new solutions that go beyond the traditional case-by-case approach, or the technology-focused strategy whose failure is revealed by the historic perspective. These new solutions require to strengthen the ability to understand crime phenomena and crime problems posed by false identity documents. Such an understanding is pivotal in order to be able to imagine, evaluate and decide on the most appropriate measures and responses. Therefore, analysis capacities and crime intelligence functions, which found the most recent policing models such as intelligence-led policing or problem-oriented policing for instance, have to be developed. In this context, the doctoral research work adopts an original position by postulating that false identity documents can be usefully perceived as the material remnant resulting from the criminal activity undertook by forgers, namely the manufacture or the modification of identity documents. Based on this fundamental postulate, it is proposed that a scientific, methodical and systematic processing of these traces through a forensic intelligence approach can generate phenomenological knowledge on the forms of crime that produce, distribute and use false identity documents. Such knowledge should integrate and serve advantageously crime intelligence efforts. In support of this original thesis and of a more general study of forensic intelligence, the doctoral work proposes definitions and models. It describes new profiling methods and initiates the construction of a catalogue of analysis forms. It also leverages experimentations and case studies. Results demonstrate that the systematic processing of forensic data usefully and relevantly contributes to strategic, tactical and operational crime intelligence, and also to criminology. Combined with alternative information available, forensic intelligence may support policing in its repressive, proactive, preventive and control activities. In particular, the proposed profiling methods enable to reveal trends among extended datasets, to analyse modus operandi, or to infer that false identity documents have a common or different source. These methods support the detection and follow-up of crime series, crime problems and phenomena and therefore contribute to crime monitoring efforts. They enable to link and regroup by problems cases that were previously viewed as isolated, to highlight organised forms of crime which deserve greatest attention, and to elicit robust and novel knowledge offering a deeper perception of crime. The doctoral research work discusses also difficulties associated with the management of data and information relating to different levels of generality, or difficulties associated with the implementation in practice of the forensic intelligence process. The doctoral work focuses primarily on false identity documents and their treatment by policing stakeholders. However, through an inductive process, it makes a generalisation which underlines that observations do not only apply to false identity documents but to any kind of trace as soon as a profile is extracted. A more transversal definition and understanding of the concept and function of forensic intelligence therefore derives from the doctoral work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Today's business environment has become increasingly unexpected and fast changing because of the global competition. This new environment requires the companies to organize their control differently, e.g. by logistic process thinking. Logistic process thinking in software engineering applies the principles of production process to immaterial products. Processes must be optimized, so that every phase adds value to the customer, and the lead times can be cut shorter to meet the new customer requirements. The purpose of this thesis is to examine and optimize the testing processes of software engineering concentrating on module testing, functional testing and their interface. The concept of logistic process thinking is introduced through production process, value added model and process management. Also theory of testing based on literature is presented, concentrating on module testing and functional testing. The testing processes of the Case Company are presented together with the project models in which they are implemented. The real life practices in module testing and functional testing and their interface are examined through interviews. These practices are analyzed against the processes and the testing theory, through which ideas for optimizing the testing process are introduced. The project world of the Case Company is also introduced together with two example testing projects in different life cycle phases. The examples give a view of how much effort of the project is put in different types of testing.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Objective: The processes of change implied in weight management remain unclear. The present study aimed to identify these processes by validating a questionnaire designed to assess processes of change (the P-Weight) in line with the transtheoretical model. The relationship of processes of change with stages of change and other external variables is also examined. Methods: Participants were 723 people from community and clinical settings in Barcelona. Their mean age was 32.07 (SD = 14.55) years; most of them were women (75.0%), and their mean BMI was 26.47 (SD = 8.52) kg/m2. They all completed the P-Weight and the stages of change questionnaire (SWeight), both applied to weight management, as well as two subscales from the Eating Disorders Inventory-2 and Eating Attitudes Test-40 questionnaires about the concern with dieting. Results: A 34-item version of the PWeight was obtained by means of a refinement process. The principal components analysis applied to half of the sample identified four processes of change. A confirmatory factor analysis was then carried out with the other half of the sample, revealing that the model of four freely correlated first-order factors showed the best fit (GFI = 0.988, AGFI = 0.986, NFI = 0.986, and SRMR = 0.0559). Corrected item-total correlations (0.322-0.865) and Cronbach"s alpha coefficients (0.781-0.960) were adequate. The relationship between the P-Weight and the S-Weight and the concern with dieting measures from other questionnaires supported the validity of the scale. Conclusion: The study identified processes of change involved in weight management and reports the adequate psychometric properties of the P-Weight. It also reveals the relationship between processes and stages of change and other external variables.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diplomityö tehtiin Partek Oyj Abp:lle antamaan IT-järjestelmistä vastuussa oleville ja niihin tukeutuville johtohenkilöille yleisnäkemys IT-sovellusintegroinnista sekä luomaan ohjeet integrointi projekteihin. Diplomityön alkuosassa esitellään liiketoiminnan prosessien pulmakohtia ja sovellusintegrointien liiketoiminnalle tuomia etuja yleisellä tasolla perustuen kirjallisuuteen. Yleisen tason etuja saadaan mm. nopeampien prosessien, paremman tiedon saatavuuden ja ihmisille tulevien uusien toimintatapojen kautta tulevista eduista. Työn seuraavassa osiossa esitellään mitä sovellusintegraatio tarkoittaa käytännössä, mitä erilaisia vaihtoehtoja integroinneille on ja mitä etuja ja haittoja erilaisista integrointitavoista on. Integrointitavoista viesti-pohjainen integrointitapa on noussut suosituimmaksi sen yksinkertaisuuden, luotettavuuden ja helpon liitettävyyden takia. Integrointisovelluksilla on mahdollista siirtää, muokata, prosessoida ja varastoida viestejä. Näiden ominaisuuksien avulla on mahdollista luoda reaaliaikaisia yhteistyöverkostoja. Tämä osio perustuu kirjallisuuteen , artikkeleihin ja haastatteluihin. Kolmas osio keskittyy integrointi projektin ominaispiirteisiin luoden toimintakartan integrointiprojektin kululle. Osiossa esitellään huomioitavat tekniset asiat, kustannukset ja edut sekä mallipohjia integroinnin dokumentointiin. Osio perustuu omiin kokemuksiin, haastatteluihin sekä kirjallisuuteen. Neljännessä osiossa esitellään Partekissa tehty integrointiprojekti. Integrointityö tehtiin ostajille tarkoitetun toimittajarekisterin (PPM) ja ERP-järjestelmän (Baan) välillä. Integrointiin käytettiin yhtä suosituinta integrointityökalua nimeltään IBM WebSphere MQ.Osio perustuu projektin dokumentointiin, omiin kokemuksiin ja kirjallisuuteen. Diplomityön päättää yhteenveto. Kolme pääetua voidaan saavuttaa integroinneilla ja toimintakartalla; tiedon luotettavuus paranee, toimintakartalla saadaan integroinneille malli ja luodaan riippumattomuutta tiettyihin avain henkilöihin tarkalla dokumentoinnilla ja toimintatapojen standardoinnilla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tässä työssä on esitetty sen ohjelmiston kehittämisen prosessi, joka on tarkoitettu annettavien palveluiden valvottavaksi käyttäen prototyyppimallia. Raportti sisältää vaatimusten, kohteisiin suunnatun analyysin ja suunnittelun, realisointiprosessien kuvauksen ja prototyypin testauksen. Ohjelmiston käyttöala – antavien palveluiden valvonta. Vaatimukset sovellukselle analysoitiin ohjelmistomarkkinoiden perusteella sekä ohjelmiston engineeringin periaatteiden mukaisesti. Ohjelmiston prototyyppi on realisoitu käyttäen asiakas-/palvelinhybridimallia sekä ralaatiokantaa. Kehitetty ohjelmisto on tarkoitettu venäläisille tietokonekerhoille, jotka erikoistuvat pelipalvelinten antamiseen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työn tarkoituksena oli löytää Asiakkuuksienhallintastrategian käyttöönoton ongelmakohtia asiakkuuksienhallintaan erikoistuneen konsulttiyrityksen asiakasyrityksen taholta. Lisäksi työssä etsitään ratkaisuja asiakkuusteorian viemiseksi käytäntöön. Työn anti on asiakkuusstrategian käytäntöön panon ongelmakohtien paikallistaminen, prosessin vaiheiden kuvaaminen sekä asiakkuuksienhallinnan tutkiminen lähtökohtana asiakkaalle tuotettu arvo. Asiakkuusstrategian implementoinnin ongelmakohtien ja kriittisten menestystekijöiden kuvaus ja vertailu käsitellään empiirisessä osassa suhteuttaen teoriaosuuden materiaaliin. CRM Group:n kannalta työ mahdollistaa osaltaan asiakasprojektien kehitystyön.Kirjallisuusosan pohjalta implementoinnin kannalta kriittisiksi menestystekijöiksi nousivat tietoteknisten ratkaisujen sulauttaminen osaksi asiakkuusstrategiaa tukevia toimintoja, aidon synergian löytäminen asiakas – toimittaja –suhteeseen sekä asiakkuusstrategiaa kehittävän organisaation sisäinen resursointi ja henkilöstön sitouttaminen.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Asiakaslähtöinen liiketoimintatapa on voimakkaasti valtaamassa alaa tuote- ja tuotanto-orientoituneelta. Tuotteiden erinomaisuus koetaan markkinoilla yhä enenevässä määrin itsestään selvyydeksi. Prosessien tehokas hallitseminen ja asiakkaan kokeman lisäarvon muodostaminen ovat muodostuneet ratkaisevimmaksi kilpailuedun luojaksi. Toimitusketjun hallinnalla on tämän kilpailuedun muodostumisessa ratkaiseva rooli. Diplomityö käsittelee toimitusketjun hallinnan tarjoamia mahdollisuuksia kehittää kohdeyrityksen tukkujakelukanavaa. Työssä pureudutaan toimitusketjun ohjauksen ja sähköisen liiketoiminnan mukanaan tuomien mahdollisuuksien hyödyntämiseen. Tärkeinä kehitystyön menetelminä esitetään toimitusketjun yhteistyön tiivistäminen ja informaation integraatio sekä näiden merkitys toimitusketjussa esiintyvän kysynnän piiskavaikutuksen vähentämiseksi.Työn empiirisen osan tuloksena on luotu kuvaus tutkitusta jakelukanavasta välillä loppuasiakas – kohdeyritys, sen toimitusketjun ohjauksesta ja toteutuneesta toiminnasta. Tämän perusteella on jakelukanavalle luotu kehitysmalli. Malli pitää sisällään viitekehyksen toimitusketjun ohjaukselle, käytännön toimenpide-ehdotukset ja saavutettavien hyötyjen arvioinnin.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tutkielman päätavoitteena oli tutkia miten projektisalkun hallinnalla voidaan tukea organisaation strategista ohjausta ja liiketoimintaa. Tämän lisäksi avaintavoitteina oli kuvata projektisalkun hallinnan nykytilanne kohdeyrityksessä, paljastaa erityisiä kehitystarpeita ja lopulta luoda kohdeyrityksen projektisalkunhallinnalle tavoitetila. Kirjallisuuskatsauksessa pohdittiin projektisalkun hallinnan roolia ja tavoitteita, projektisalkun hallinnassa käyttävää prosessia, sekä menetelmiä ja tekniikoita, joilla salkkua hallitaan. Työn empiirisessä osassa syvennyttiin tutkimaan projektinsalkun hallintaan liittyviä erityispiirteitä kohdeyrityksessä. Tutkimustulosten huolellinen analysointi osoitti, että aikaisempi kirjallisuus ei riittävästi huomioi kokonaisvaltaisen, integroidun lähestymistavan tarvetta ja viestinnän tärkeyttä projektisalkun hallinnassa. Tutkimuksen johtopäätöksinä luotiin uusi integroitu projektisalkun hallintamalli ja määriteltiin kohdeyritykselle projektisalkun hallinnan tavoitetila sekä ne kehitysaskeleet, joita yrityksen tulisi lähitulevaisuudessa ottaa.