236 resultados para Usability for teenagers
Resumo:
Tässä työssä tutkitaan Lappeenrannan teknillisen yliopiston Uni-portaalia ja sen käytettävyyttä käytettävyystutkimuksen avulla. Työn tavoitteena on saada palveluun parannusehdotuksia tutkimuksen tuloksien pohjalta. Työssä tarkastellaan vain palvelun ”Opinnot ja palvelut” -sivua ja sen suomenkielistä näkymää. Työn tuloksina kävi ilmi palvelun sisältävän huonosti nimettyjä linkkejä, liian pitkiä linkkipolkuja sekä epäloogisia paikkoja eri tiedoille. Tuloksien pohjalta palvelulle on esitetty parannuksia juuri näihin epäkohtiin.
Resumo:
Pro Gradu- tutkimuksen keskeisin tavoite on ollut selvittää, kuinka sosioteknistä kuilua kohdeyrityksen toiminnanohjausjärjestelmän ja käyttäjien välillä voitaisiin pienentää. Teo-reettisena viitekehyksenä on käytetty sosioteknistä systeemiteoriaa sekä teorioita liittyen tietoteknisen järjestelmän hyväksyntään. Toiminnanohjausjärjestelmät ovat tunnetusti välttämätön osa nykypäivää lähes kaikille yrityksille. Niiden käyttöönoton onnistumista ja käytön tehokkuutta voidaan parantaa huomioimalla sekä sosiaalinen että tekninen systeemi organisaatiossa. Sosiotekninen kuilu rakentuu kahden välttämättömän ja toisistaan riippuvaisen systeemin välille: sekä sosiaalinen systeemi eli henkilöstö ja heidän työtapansa että tekninen systeemi eli tekno-logia ja tieto on huomioitava ja aidosti sosioteknisessä muutoksessa molempia systeeme-jä muokattava. Organisaatio voi parantaa omilla toimillaan käyttäjien asennetta ja haluk-kuutta ja siten kaventaa kuilua sosiaalisen systeemin puolelta. Lisäksi teknistä systeemiä tulisi muokata paremmin vastaamaan käyttäjien toiveita, jotta kuilu kapenisi myös tekni-sen systeemin suunnasta. Tutkimus toteutettiin laadullisena ja aineistonkeräystapana käytettiin puolistrukturoituja haastatteluja kohdeyrityksessä.
Resumo:
The shift towards a knowledge-based economy has inevitably prompted the evolution of patent exploitation. Nowadays, patent is more than just a prevention tool for a company to block its competitors from developing rival technologies, but lies at the very heart of its strategy for value creation and is therefore strategically exploited for economic pro t and competitive advantage. Along with the evolution of patent exploitation, the demand for reliable and systematic patent valuation has also reached an unprecedented level. However, most of the quantitative approaches in use to assess patent could arguably fall into four categories and they are based solely on the conventional discounted cash flow analysis, whose usability and reliability in the context of patent valuation are greatly limited by five practical issues: the market illiquidity, the poor data availability, discriminatory cash-flow estimations, and its incapability to account for changing risk and managerial flexibility. This dissertation attempts to overcome these impeding barriers by rationalizing the use of two techniques, namely fuzzy set theory (aiming at the first three issues) and real option analysis (aiming at the last two). It commences with an investigation into the nature of the uncertainties inherent in patent cash flow estimation and claims that two levels of uncertainties must be properly accounted for. Further investigation reveals that both levels of uncertainties fall under the categorization of subjective uncertainty, which differs from objective uncertainty originating from inherent randomness in that uncertainties labelled as subjective are highly related to the behavioural aspects of decision making and are usually witnessed whenever human judgement, evaluation or reasoning is crucial to the system under consideration and there exists a lack of complete knowledge on its variables. Having clarified their nature, the application of fuzzy set theory in modelling patent-related uncertain quantities is effortlessly justified. The application of real option analysis to patent valuation is prompted by the fact that both patent application process and the subsequent patent exploitation (or commercialization) are subject to a wide range of decisions at multiple successive stages. In other words, both patent applicants and patentees are faced with a large variety of courses of action as to how their patent applications and granted patents can be managed. Since they have the right to run their projects actively, this flexibility has value and thus must be properly accounted for. Accordingly, an explicit identification of the types of managerial flexibility inherent in patent-related decision making problems and in patent valuation, and a discussion on how they could be interpreted in terms of real options are provided in this dissertation. Additionally, the use of the proposed techniques in practical applications is demonstrated by three fuzzy real option analysis based models. In particular, the pay-of method and the extended fuzzy Black-Scholes model are employed to investigate the profitability of a patent application project for a new process for the preparation of a gypsum-fibre composite and to justify the subsequent patent commercialization decision, respectively; a fuzzy binomial model is designed to reveal the economic potential of a patent licensing opportunity.
Resumo:
Tässä työssä arvioidaan terveydenhuollon sähköisten palveluiden käytettävyyttä. Tavoitteena on selvittää kuinka Hyvis.fi tyyppisen sivuston käytettävyyttä voidaan parantaa käyttäjän näkökulmasta. Käytännön työnä suoritettiin heuristinen arvio Hyvis.fi sivustolle ja sen kilpailijoiden ratkaisuille. Näin pyrittiin selvittämään syitä miksi Hyvis.fi sivuston käytettävyys ei ole yhtä hyvä kuin kilpailijoilla. Tuloksista selvisi, että todennäköisin syy on monimutkainen ja epälooginen dialogi käyttäjän kanssa. Sivuston rakenne ei ole yhtä yksinkertainen ja yhdenmukainen, kuin muissa testatuissa sivustoissa. Jatkossa on tehtävä käytettävyystestausta selvittääkseen, mitkä toiminnot ovat eniten ja vähiten käytettyjä. Eniten käytetyt toiminnot on tuotava paremmin esille käyttäjille ja vähiten käytetyt piilottaa tai poistaa täysin. Hyvis.fi sivuston tapauksessa huono dialogi vaikuttaa niin vakavalta ongelma, että muut käytettävyysongelmat johtuvat osittain siitä.
Resumo:
The emerging technologies have recently challenged the libraries to reconsider their role as a mere mediator between the collections, researchers, and wider audiences (Sula, 2013), and libraries, especially the nationwide institutions like national libraries, haven’t always managed to face the challenge (Nygren et al., 2014). In the Digitization Project of Kindred Languages, the National Library of Finland has become a node that connects the partners to interplay and work for shared goals and objectives. In this paper, I will be drawing a picture of the crowdsourcing methods that have been established during the project to support both linguistic research and lingual diversity. The National Library of Finland has been executing the Digitization Project of Kindred Languages since 2012. The project seeks to digitize and publish approximately 1,200 monograph titles and more than 100 newspapers titles in various, and in some cases endangered Uralic languages. Once the digitization has been completed in 2015, the Fenno-Ugrica online collection will consist of 110,000 monograph pages and around 90,000 newspaper pages to which all users will have open access regardless of their place of residence. The majority of the digitized literature was originally published in the 1920s and 1930s in the Soviet Union, and it was the genesis and consolidation period of literary languages. This was the era when many Uralic languages were converted into media of popular education, enlightenment, and dissemination of information pertinent to the developing political agenda of the Soviet state. The ‘deluge’ of popular literature in the 1920s to 1930s suddenly challenged the lexical orthographic norms of the limited ecclesiastical publications from the 1880s onward. Newspapers were now written in orthographies and in word forms that the locals would understand. Textbooks were written to address the separate needs of both adults and children. New concepts were introduced in the language. This was the beginning of a renaissance and period of enlightenment (Rueter, 2013). The linguistically oriented population can also find writings to their delight, especially lexical items specific to a given publication, and orthographically documented specifics of phonetics. The project is financially supported by the Kone Foundation in Helsinki and is part of the Foundation’s Language Programme. One of the key objectives of the Kone Foundation Language Programme is to support a culture of openness and interaction in linguistic research, but also to promote citizen science as a tool for the participation of the language community in research. In addition to sharing this aspiration, our objective within the Language Programme is to make sure that old and new corpora in Uralic languages are made available for the open and interactive use of the academic community as well as the language societies. Wordlists are available in 17 languages, but without tokenization, lemmatization, and so on. This approach was verified with the scholars, and we consider the wordlists as raw data for linguists. Our data is used for creating the morphological analyzers and online dictionaries at the Helsinki and Tromsø Universities, for instance. In order to reach the targets, we will produce not only the digitized materials but also their development tools for supporting linguistic research and citizen science. The Digitization Project of Kindred Languages is thus linked with the research of language technology. The mission is to improve the usage and usability of digitized content. During the project, we have advanced methods that will refine the raw data for further use, especially in the linguistic research. How does the library meet the objectives, which appears to be beyond its traditional playground? The written materials from this period are a gold mine, so how could we retrieve these hidden treasures of languages out of the stack that contains more than 200,000 pages of literature in various Uralic languages? The problem is that the machined-encoded text (OCR) contains often too many mistakes to be used as such in research. The mistakes in OCRed texts must be corrected. For enhancing the OCRed texts, the National Library of Finland developed an open-source code OCR editor that enabled the editing of machine-encoded text for the benefit of linguistic research. This tool was necessary to implement, since these rare and peripheral prints did often include already perished characters, which are sadly neglected by the modern OCR software developers, but belong to the historical context of kindred languages and thus are an essential part of the linguistic heritage (van Hemel, 2014). Our crowdsourcing tool application is essentially an editor of Alto XML format. It consists of a back-end for managing users, permissions, and files, communicating through a REST API with a front-end interface—that is, the actual editor for correcting the OCRed text. The enhanced XML files can be retrieved from the Fenno-Ugrica collection for further purposes. Could the crowd do this work to support the academic research? The challenge in crowdsourcing lies in its nature. The targets in the traditional crowdsourcing have often been split into several microtasks that do not require any special skills from the anonymous people, a faceless crowd. This way of crowdsourcing may produce quantitative results, but from the research’s point of view, there is a danger that the needs of linguists are not necessarily met. Also, the remarkable downside is the lack of shared goal or the social affinity. There is no reward in the traditional methods of crowdsourcing (de Boer et al., 2012). Also, there has been criticism that digital humanities makes the humanities too data-driven and oriented towards quantitative methods, losing the values of critical qualitative methods (Fish, 2012). And on top of that, the downsides of the traditional crowdsourcing become more imminent when you leave the Anglophone world. Our potential crowd is geographically scattered in Russia. This crowd is linguistically heterogeneous, speaking 17 different languages. In many cases languages are close to extinction or longing for language revitalization, and the native speakers do not always have Internet access, so an open call for crowdsourcing would not have produced appeasing results for linguists. Thus, one has to identify carefully the potential niches to complete the needed tasks. When using the help of a crowd in a project that is aiming to support both linguistic research and survival of endangered languages, the approach has to be a different one. In nichesourcing, the tasks are distributed amongst a small crowd of citizen scientists (communities). Although communities provide smaller pools to draw resources, their specific richness in skill is suited for complex tasks with high-quality product expectations found in nichesourcing. Communities have a purpose and identity, and their regular interaction engenders social trust and reputation. These communities can correspond to research more precisely (de Boer et al., 2012). Instead of repetitive and rather trivial tasks, we are trying to utilize the knowledge and skills of citizen scientists to provide qualitative results. In nichesourcing, we hand in such assignments that would precisely fill the gaps in linguistic research. A typical task would be editing and collecting the words in such fields of vocabularies where the researchers do require more information. For instance, there is lack of Hill Mari words and terminology in anatomy. We have digitized the books in medicine, and we could try to track the words related to human organs by assigning the citizen scientists to edit and collect words with the OCR editor. From the nichesourcing’s perspective, it is essential that altruism play a central role when the language communities are involved. In nichesourcing, our goal is to reach a certain level of interplay, where the language communities would benefit from the results. For instance, the corrected words in Ingrian will be added to an online dictionary, which is made freely available for the public, so the society can benefit, too. This objective of interplay can be understood as an aspiration to support the endangered languages and the maintenance of lingual diversity, but also as a servant of ‘two masters’: research and society.
Resumo:
Tässä opinnäytetyössä on toteutettu ja arvioitu virtuaalitodellisuuteen soveltuvaa käyttöliittymää. Motivaationa työlle oli Google Cardboardin mahdollistama todentuntuinen virtuaalikokemus älypuhelimen hinnalla. Cardboard-ympäristöön ei kuitenkaan ollut olemassa kattavaa käyttöliittymää ja tämän työn tavoitteena olikin selvittää, onko älypuhelimen kameraa mahdollista käyttää eleohjauksen toteuttamiseen niin että ohjaus on käytettävyydeltään kelvollinen ja se tukee läsnäolon tunteen syntymistä. Asian selvittämiseksi kehitettiin testipeli, jolla eleohjausta verrattiin Cardboardin oletuskäyttöliittymään. Koehenkilöt saavuttivat ehdotetulla käyttöliittymällä testipelissä keskimäärin 45-% korkeampia pistemääriä ja lisäksi he arvioivat sen olleen toimiva ja sen synnyttämän läsnäolon tunteen olleen voimakkaampaa.
Resumo:
The value that the customer perceives from a supplier’s offering, impacts customer’s decision making and willingness to pay at the time of the purchase, and the overall satisfaction. Thus, for a business supplier, it is critical to understand their customers’ value perceptions. The objective of this thesis is to understand what measurement and monitoring system customers value, by examining their key purchasing criteria and perceived benefits. Theoretical part of this study consists on reviewing relevant literature on organizational buying behavior and customer perceived value. This study employs a qualitative interview research method. The empirical part of this research consisted of conducting 20 in-depth interviews with life science customers in USA and in Europe. Quality and technical features are the most important purchasing criteria, while product-related benefits seem to be the most important perceived benefits. At the marketing of the system, the emphasis should be at which regulations the system complies with, references of supplier’s prior experience, the reliability and usability of the system, and total costs. The benefits that should be emphasized are the better control of customer’s process, and the proof of customer’s product quality
Resumo:
Software is a key component in many of our devices and products that we use every day. Most customers demand not only that their devices should function as expected but also that the software should be of high quality, reliable, fault tolerant, efficient, etc. In short, it is not enough that a calculator gives the correct result of a calculation, we want the result instantly, in the right form, with minimal use of battery, etc. One of the key aspects for succeeding in today's industry is delivering high quality. In most software development projects, high-quality software is achieved by rigorous testing and good quality assurance practices. However, today, customers are asking for these high quality software products at an ever-increasing pace. This leaves the companies with less time for development. Software testing is an expensive activity, because it requires much manual work. Testing, debugging, and verification are estimated to consume 50 to 75 per cent of the total development cost of complex software projects. Further, the most expensive software defects are those which have to be fixed after the product is released. One of the main challenges in software development is reducing the associated cost and time of software testing without sacrificing the quality of the developed software. It is often not enough to only demonstrate that a piece of software is functioning correctly. Usually, many other aspects of the software, such as performance, security, scalability, usability, etc., need also to be verified. Testing these aspects of the software is traditionally referred to as nonfunctional testing. One of the major challenges with non-functional testing is that it is usually carried out at the end of the software development process when most of the functionality is implemented. This is due to the fact that non-functional aspects, such as performance or security, apply to the software as a whole. In this thesis, we study the use of model-based testing. We present approaches to automatically generate tests from behavioral models for solving some of these challenges. We show that model-based testing is not only applicable to functional testing but also to non-functional testing. In its simplest form, performance testing is performed by executing multiple test sequences at once while observing the software in terms of responsiveness and stability, rather than the output. The main contribution of the thesis is a coherent model-based testing approach for testing functional and performance related issues in software systems. We show how we go from system models, expressed in the Unified Modeling Language, to test cases and back to models again. The system requirements are traced throughout the entire testing process. Requirements traceability facilitates finding faults in the design and implementation of the software. In the research field of model-based testing, many new proposed approaches suffer from poor or the lack of tool support. Therefore, the second contribution of this thesis is proper tool support for the proposed approach that is integrated with leading industry tools. We o er independent tools, tools that are integrated with other industry leading tools, and complete tool-chains when necessary. Many model-based testing approaches proposed by the research community suffer from poor empirical validation in an industrial context. In order to demonstrate the applicability of our proposed approach, we apply our research to several systems, including industrial ones.
Resumo:
This research is looking to find out what benefits employees expect the organization of data governance gains for an organization and how it benefits implementing automated marketing capabilities. Quality and usability of the data are crucial for organizations to meet various business needs. Organizations have more data and technology available what can be utilized for example in automated marketing. Data governance addresses the organization of decision rights and accountabilities for the management of an organization’s data assets. With automated marketing it is meant sending a right message, to a right person, at a right time, automatically. The research is a single case study conducted in Finnish ICT-company. The case company was starting to organize data governance and implementing automated marketing capabilities at the time of the research. Empirical material is interviews of the employees of the case company. Content analysis is used to interpret the interviews in order to find the answers to the research questions. Theoretical framework of the research is derived from the morphology of data governance. Findings of the research indicate that the employees expect the organization of data governance among others to improve customer experience, to improve sales, to provide abilities to identify individual customer’s life-situation, ensure that the handling of the data is according to the regulations and improve operational efficiency. The organization of data governance is expected to solve problems in customer data quality that are currently hindering implementation of automated marketing capabilities.
Resumo:
Pelillistetyissä järjestelmissä saavutetut pisteet ja muut saavutukset näkyvät yleensä vain kyseisessä palvelussa. Edward Decin ja Richard Ryanin teorian mukaan on tärkeää, että käyttäjä pystyy jakamaan saavutetun maineensa ystävilleen. Viestintäjärjestelmän suosiota, vertaisviestintää ja pelillistämistä pyrittiin parantamaan mahdollistamalla sen profiilin jakaminen sosiaalisessa mediassa käyttäjän ystäville, jotka eivät ole rekisteröityneet kyseiseen viestintäjärjestelmään. Tätä varten toteutettiin liitännäinen, joka mahdollistaa profiilin jakamisen Facebookissa yhdellä klikkauksella. Toteutetun liitännäisen avulla käyttäjä voi jakaa profiilinsa Facebookissa, jonka lisäksi se on helppokäyttöinen ja muokattavissa pääkäyttäjän toimesta. Suurimmaksi ongelmaksi liitännäisen kehityksessä osoittautui Facebookin vielä kehityksessä olevat kirjastot, jota käytetään yhteyden muodostamiseen. Liitännäisen julkaisu vaatisi laajempaa testausta sen yleisen toiminnallisuuden ja käytettävyyden suhteen.
Resumo:
E-commerce is one of the most fast growing business areas today and an extremely important channel in retail. In order for companies to succeed in this business environment, it is highly important to understand consumers and how they perceive and select webstores. The objective of the study is to investigate how to achieve competitive e-commerce by investigating consumers and the factors based on which they select a webstore. In addition, the study also seeks to explore whether sex or consumers’ buying experience have an effect on consumer’s webstore selection. Managerial implications are viewed from case company’s perspective. In order to answer the research questions a quantitative marketing survey was conducted. The data was collected by online questionnaire using the case company’s customers as respondents. A total of 1613 responses were obtained from Finnish consumers. Responses were analyzed using ANOVA, factor analysis and t-test. The results show that the most important factors in consumer’s webstore selection are usability, reliability and vendor related information. The biggest difference between heavy and light shoppers is trust formation. Light shoppers value physical stores and familiar vendors, whereas heavy shoppers judge vendor based on the information and usability. Women perceive higher risk than men. The winning strategy requires a hybrid of cost leadership and differentiation.
Resumo:
Diplomityössä kartoitetaan tiedon laatuun vaikuttavia tekijöitä kirjallisuuden pohjalta sekä tutkitaan empiirisesti sähköisen reseptin tietosisällön laatua toiminnallisuuden näkökulmasta tarkasteltuna. Tutkimuksen tavoitteena on tuottaa esiselvitys Reseptikeskuksen tietosisällön toiminnallisesta laadusta käytettäväksi lähtötietona tiedon laadun arviointiin ja seurantaan. Tutkimuksen empiirinen osuus toteutettiin kvantitatiivisena tutkimuksena analysoimalla Reseptikeskuksen tietosisällöstä poimittua n. 600 potilaan otosta. Tutkitussa tietosisällössä havaittiin joitain poikkeamia tietosisältöä koskeviin määrityksiin verrattuna, mutta merkittäviä eroja terveydenhuollon eri toimijaryhmien apteekeissa, julkisella ja yksityisellä sektorilla kirjaamien reseptien tietosisällön laadussa ei havaittu. Tiedon kontekstisidonnaisuus on keskeinen tekijä tiedon toiminnallisen laadun määrittämisessä, arvioinnissa ja kehittämisessä. Toiminnan kannalta merkityksellinen tieto rakentuu dataan liitettyjen merkitysten, tiedon käyttäjien kokemusten sekä teknisen ja sosiaalisen käyttöympäristön muodostamana kokonaisuutena. Tiedon laadun parantaminen on jatkuva prosessi, jota tulee ylläpitää arvioimalla ja kehittämällä käytettäviä laatumittareita ja analysointimalleja. Reseptikeskuksen tietosisällön laatua voidaan edelleen kehittää ja nyt tehdyn esikartoituksen pohjalta voidaan jatkossa seurata tietosisällön laadun kehittymistä uusien tutkimusten avulla
Resumo:
Kotkan jakelualueella käytetään historiallisista syistä keskijänniteverkossa kahta jänniteta-soa, 10 kV ja 20 kV. Eri jännitetasojen lisäksi Kotkan jakelualueen 110/20 päämuuntajien kytkentäryhmänä on käytössä YNyn0, kun taas muualla verkossa käytetään YNd11 kyt-kentäryhmää. Jännitetasoista ja kytkentäryhmistä johtuen Kotkan jakeluverkon yhteenkyt-kettävyys ympäröivän verkon kanssa on haastavaa. Työn tavoitteena on selvittää Kotkan kaupungin keskijänniteverkon nykytila ja käytettä-vyys häiriötilanteissa pahimpana mahdollisena aikana, sekä löytää mahdolliset ongelma-kohdat. Verkon nykytila tarkasteltiin verkkotietojärjestelmän avulla käyttäen laskennallisia tuloksia, jotka skaalattiin vastaamaan kovemman pakkastalven kuormitusta. Skaalaus teh-tiin useamman vuoden takaiseen tilanteeseen, jolloin yleinen taloustilanne oli parempi ja verkon kuormitus suurempi, jolloin verkko ei tule alimitoitetuksi taloustilanteen parantuessa. Tulevaisuuden varalta muodostettiin alueen tulevaisuuden kuormitusennusteet käyttämällä historiatietoja sekä tulevaisuuden näkymiä apuna. Työn keskeisimmäksi sisällöksi muodostui selvittää tarve usean käyttöjännitteen säilyttä-miselle sekä erilaisten kytkentäryhmien ylläpitämiseen ja kosketusjänniteongelman ratkai-seminen. Alueen sähköverkon kehittämiseksi tehtiin useita eri vaihtoehtoja, joita vertailtiin elinkaarikustannusperiaatteella toisiinsa. Vertailun pohjalta saatiin investointistrategia ehdo-tukset, joiden pohjalta verkkoyhtiö voi tehdä tulevaisuuteen sijoittuvia ratkaisuja.
Resumo:
Tässä työssä tutkitaan suljetun jakeluverkon regulaatiota yhden suomalaisen teollisuussähköverkon näkökulmasta ja sitä verrataan olemassa olevaan energiaviraston jakeluverkkoja koskevaan säätelymalliin. Työssä tutkitaan verkkoyhtiön kehittämän säätelymallin toimivuutta ja sitä kuinka se täyttää hyvän valvontamallin ominaispiirteet. Tässä työssä ei ole tarkoituksena esittää uutta valvontamallia, vaan tutkia ja arvioida olemassa olevia malleja. Työssä käydään läpi olemassa oleva kolmannen valvontajakson regulaatiomalli sekä muutokset, joita on esitetty tuleville valvontakausille. Työssä taustoitetaan valvontatoimintaa myös yleisen talousteorian ja valvontateorioiden avulla. Tämän taustoituksen avulla tarkastellaan teollisuussähköverkkojen erityisiä ominaisuuksia ja edelleen tutkitun teollisuussähköverkon korkeita käyttövaatimuksia ja syitä tällaisille vaatimuksille. Verkkoyhtiön käyttämä tariffimalli kuvataan myös sen liittyessä sääntelyyn saumattomasti. Työssä todistettiin mallin toimivuus tämän kaltaisessa toimintaympäristössä, jossa käyntivarmuusvaatimus on erittäin korkea. Havainnoissa myös korostuu mallin pitkäjänteisyys ja ennustettavuus. Laskentaesimerkkien avulla arvioidaan liittymähinnoittelun kohtuullisuutta asiakkaalle ja mallin toimivuutta yleensä. Näissä tarkasteluissa havaittiin, että yleisellä tasolla liittymähinnoittelu on kohtuullista asiakkaalle ja se mahdollistaa asiakkaan pääomien tehokkaamman käytön kuin ilman verkkoyhtiötä. Kehittämiskohteina tuodaan esille keskeytyksistä aiheutuvien haittojen käsittely ja se, ettei tällaiseen verkkoympäristöön ole tällä hetkellä toimivaa mittaria, jolla voitaisiin arvioida kuinka hyvin verkkoyhtiö toimii.
Resumo:
The purpose of this master’s thesis was to study the opportunity to apply Lean practices to product management function which happens in an office environment. Since product management plays an important role in the company’s success story, it’s important to have it functioning as effectively as possible. The goal was to find those Lean tools and methods that fit the best to the needs of product management. The research was conducted as a qualitative action research which comprises a comprehensive literature review and a single case study. Theoretical information about Lean Thinking and product management was collected from articles, literature and Internet sources. Moreover, empirical data was collected by conducting interviews in the Case Company’s product management department in order to gain an in-depth understanding of product management’s problematics. The results indicate that most of the product management challenges could be overcome by applying Lean practises. Based on the usability rate, which has been discussed in the empirical part of this study, the most suitable Lean practises for product management function are: value stream mapping, Kanban and KPIs.