72 resultados para unified framework
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Decisions taken in modern organizations are often multi-dimensional, involving multiple decision makers and several criteria measured on different scales. Multiple Criteria Decision Making (MCDM) methods are designed to analyze and to give recommendations in this kind of situations. Among the numerous MCDM methods, two large families of methods are the multi-attribute utility theory based methods and the outranking methods. Traditionally both method families require exact values for technical parameters and criteria measurements, as well as for preferences expressed as weights. Often it is hard, if not impossible, to obtain exact values. Stochastic Multicriteria Acceptability Analysis (SMAA) is a family of methods designed to help in this type of situations where exact values are not available. Different variants of SMAA allow handling all types of MCDM problems. They support defining the model through uncertain, imprecise, or completely missing values. The methods are based on simulation that is applied to obtain descriptive indices characterizing the problem. In this thesis we present new advances in the SMAA methodology. We present and analyze algorithms for the SMAA-2 method and its extension to handle ordinal preferences. We then present an application of SMAA-2 to an area where MCDM models have not been applied before: planning elevator groups for high-rise buildings. Following this, we introduce two new methods to the family: SMAA-TRI that extends ELECTRE TRI for sorting problems with uncertain parameter values, and SMAA-III that extends ELECTRE III in a similar way. An efficient software implementing these two methods has been developed in conjunction with this work, and is briefly presented in this thesis. The thesis is closed with a comprehensive survey of SMAA methodology including a definition of a unified framework.
Resumo:
Elinkaariarviointi on menetelmä, missä tuotejärjestelmän aikaiset syötteet ja tuotteet koostetaan yhteen ja tuloksena saadaan sen ympäristökuormitus. Elinkaariarviointi on päätöksentekoa tukeva työkalu. Jätelain kokonaisuudistuksen myötä elinkaariarvioinnin käyttö tullee lisääntymään kuntavastuullisessa jätehuollossa. Helsingin seudun ympäristöpalvelut -kuntayhtymä HSY:n jätehuollon tavoitteena on rakentaa elinkaarimalli, jonka avulla voidaan selvittää koko toiminnan aiheuttama ympäristökuormitus ja taloudelliset vaikutukset. HSY:n jätehuolto on päättänyt toteuttaa elinkaarimallin rakentamisen konsulttityönä. Työn tavoitteena on ollut laatia toimintaohjeisto HSY:n jätehuollon elinkaarimallinnuspalveluiden hankkimiseksi. Elinkaarimalli voidaan tehdä kaupallista ohjelmistoa käyttämällä. Tähän selvitykseen on valittu arvioitavaksi kolme elinkaariarvioinnin työkalua: EASEWASTE, WRATE ja GaBi 4.4. Ohjelmistojen ominaisuuksia on arvioitu kirjallisuuden ja haastattelun perusteella. Työssä on laadittu kriteeristö näiden ohjelmistojen arviointiin. Kirjallisuuden perusteella on selvitetty elinkaariarvioinnin soveltamiskohteet kuntavastuullisessa jätehuollossa. HSY:n jätehuollon elinkaariarvioinnin soveltamiskohteet ja mallinnustarpeet on tunnistettu haastattelemalla HSY:n jätehuollon asiantuntijoita. HSY:n jätehuollolle rakennettavan mallin päivittämistä, käyttöä ja kehittämistä tulisi hallita HSY:n jätehuollon toimesta. Kaikki työssä arvioidut ohjelmistot soveltuvat HSY:n jätehuollon tunnistamien mallinnustarpeiden laskentaan. Elinkaarimallinnuspalveluiden toimintaohjeistolla pyritään varmistamaan HSY:n jätehuollon tarpeisiin soveltuvan mallin hankinta ja jatkotoimenpiteiden suunnittelu.
Resumo:
IT outsourcing (ITO) refers to the shift of IT/IS activities from internal to external of an organization. In prior research, the governance of ITO is recognized with persistent strategic importance for practice, because it is tightly related to ITO success. Under the rapid transformation of global market, the evolving practice of ITO requires updated knowledge on effective governance. However, research on ITO governance is still under developed due to the lack of integrated theoretical frameworks and the variety of empirical settings besides dyadic client-vendor relationships. Especially, as multi-sourcing has become an increasingly common practice in ITO, its new governance challenges must be attended by both ITO researchers and practitioners. To address this research gap, this study aims to understand multi-sourcing governance with an integrated theoretical framework incorporating both governance structure and governance mechanisms. The focus is on the emerging deviations among formal, perceived and practiced governance. With an interpretive perspective, a single case study is conducted with mixed methods of Social Network Analysis (SNA) and qualitative inquiries. The empirical setting embraces one client firm and its two IT suppliers for IT infrastructure services. The empirical material is analyzed at three levels: within one supplier firm, between the client and one supplier, and among all three firms. Empirical evidences, at all levels, illustrate various deviations in governance mechanisms, with which emerging governance structures are shaped. This dissertation contributes to the understanding of ITO governance in three domains: the governance of ITO in general, the governance of multi-sourcing in particular, and research methodology. For ITO governance in general, this study has identified two research strands of governance structure and governance mechanisms, and integrated both concepts under a unified framework. The composition of four research papers contributes to multi-sourcing research by illustrating the benefits of zooming in and out across the multilateral relationships with different aspects and scopes. Methodologically, the viability and benefit of mixed-method is illustrated and confirmed for both researchers and practitioners.
Resumo:
This thesis aims to investigate pricing of liquidity risks in London Stock Exchange. Liquidity Adjusted Capital Asset Pricing Model i.e. LCAPM developed by Acharya and Pedersen (2005) is being applied to test the influence of various liquidity risks on stock returns in London Stock Exchange. The Liquidity Adjusted Capital Asset Pricing model provides a unified framework for the testing of liquidity risks. All the common stocks listed and delisted for the period of 2000 to 2014 are included in the data sample. The study has incorporated three different measures of liquidity – Percent Quoted Spread, Amihud (2002) and Turnover. The reason behind the application of three different liquidity measures is the multi-dimensional nature of liquidity. Firm fixed effects panel regression is applied for the estimation of LCAPM. However, the results are robust according to Fama-Macbeth regressions. The results of the study indicates that liquidity risks in the form of (i) level of liquidity, (ii) commonality in liquidity (iii) flight to liquidity, (iv) depressed wealth effect and market return as well as aggregate liquidity risk are priced at London Stock Exchange. However, the results are sensitive to the choice of liquidity measures.
Resumo:
The capabilities and thus, design complexity of VLSI-based embedded systems have increased tremendously in recent years, riding the wave of Moore’s law. The time-to-market requirements are also shrinking, imposing challenges to the designers, which in turn, seek to adopt new design methods to increase their productivity. As an answer to these new pressures, modern day systems have moved towards on-chip multiprocessing technologies. New architectures have emerged in on-chip multiprocessing in order to utilize the tremendous advances of fabrication technology. Platform-based design is a possible solution in addressing these challenges. The principle behind the approach is to separate the functionality of an application from the organization and communication architecture of hardware platform at several levels of abstraction. The existing design methodologies pertaining to platform-based design approach don’t provide full automation at every level of the design processes, and sometimes, the co-design of platform-based systems lead to sub-optimal systems. In addition, the design productivity gap in multiprocessor systems remain a key challenge due to existing design methodologies. This thesis addresses the aforementioned challenges and discusses the creation of a development framework for a platform-based system design, in the context of the SegBus platform - a distributed communication architecture. This research aims to provide automated procedures for platform design and application mapping. Structural verification support is also featured thus ensuring correct-by-design platforms. The solution is based on a model-based process. Both the platform and the application are modeled using the Unified Modeling Language. This thesis develops a Domain Specific Language to support platform modeling based on a corresponding UML profile. Object Constraint Language constraints are used to support structurally correct platform construction. An emulator is thus introduced to allow as much as possible accurate performance estimation of the solution, at high abstraction levels. VHDL code is automatically generated, in the form of “snippets” to be employed in the arbiter modules of the platform, as required by the application. The resulting framework is applied in building an actual design solution for an MP3 stereo audio decoder application.
Resumo:
The aim of this research was to develop a framework to analyze how physical environment influences scientific creativity. Due to the relative novelty of this topic, there is still a gap in the unified method to study connection between physical environment and creativity. Therefore, in order to study this issue deeply, the qualitative method was used (interviews and qualitative questionnaire). Scientists (PhD students and senior researchers) of Graduate School of Management were interviewed to build the model and one expert interview was conducted to assess its validity. The model highlights several dimensions via which physical environment can influence scientific creativity: Comfort, Instruments and Diversity. Comfort and Instruments are considered to be related mostly to productivity, an initial requirement for creativity, while Diversity is the factor responsible for supporting all the stages of scientific creative process. Thus, creative physical environment is not one place by its nature, but an aggregative phenomenon. Due to two levels of analysis, the model is named the two-level model of creative physical environment.
Resumo:
The software development industry is constantly evolving. The rise of the agile methodologies in the late 1990s, and new development tools and technologies require growing attention for everybody working within this industry. The organizations have, however, had a mixture of various processes and different process languages since a standard software development process language has not been available. A promising process meta-model called Software & Systems Process Engineering Meta- Model (SPEM) 2.0 has been released recently. This is applied by tools such as Eclipse Process Framework Composer, which is designed for implementing and maintaining processes and method content. Its aim is to support a broad variety of project types and development styles. This thesis presents the concepts of software processes, models, traditional and agile approaches, method engineering, and software process improvement. Some of the most well-known methodologies (RUP, OpenUP, OpenMethod, XP and Scrum) are also introduced with a comparison provided between them. The main focus is on the Eclipse Process Framework and SPEM 2.0, their capabilities, usage and modeling. As a proof of concept, I present a case study of modeling OpenMethod with EPF Composer and SPEM 2.0. The results show that the new meta-model and tool have made it possible to easily manage method content, publish versions with customized content, and connect project tools (such as MS Project) with the process content. The software process modeling also acts as a process improvement activity.
Resumo:
Ohjelmistoprojektit pohjautuvat nykyään useasti osittain itsenäisesti suunniteltujen ja; toteutettujen ohjelmakomponenttien yhdistelemiseen. Tällä keinolla voidaan vähentää kehitystyön; viemää aikaa ja kustannuksia, jotta saadaan tuotettua kilpailukykyisempiä ohjelmistoja.; Tässädokumentissa käsitellään komponenttipohjaisen ohjelmistotuotannon näkökulmia ja; Microsoft .NET Framework ympäristöä, joka on kehitysympäristö komponenttipohjaisille; ohjelmistoille. Lisäksi esitellään tapauskohtainen ohjelmistoprojekti extranet-verkon; toteutukseen.
Resumo:
Fenix on suuri metsäteollisuuden tuotannonohjausjärjestelmä. Fenix-järjestelmän raportointi- ja tulostuspalvelut elävätvaihdekautta. Aikaisemmin käytetyt raportointityökalut ovat vanhentumassa ja neon korvattava uusilla. Uusi raportointialusta, Global Printing System (GPS), onrakennettu StreamServe Business Communication Platformin ympärille. Uuden alustan on tarkoitus hoitaa Fenixin tulostus sekä raportointitehtävät. Työ kuvaa raportointialustan toteutuksen sekä sen tärkeimmät ominaisuudet. Uuden alustan suorituskyvyssä on ollut toivomisen varaa. Etenkin suurien raporttien generoiminen on kestänyt joskus toivottoman pitkään. Työssä analysoidaan raportointialustan suorituskykyä ja etsitään mahdolliset pullonkaulat. Suorituskyvyn heikkouksiin pyritään löytämään ratkaisut ja annetaan ehdotuksia suorituskyvyn parantamiseksi. XML pohjaisena järjestelmänä GPS:n suorituskyvyssä suurta osaaesittää XML:n tehokkuus. GPS sisääntuleva data tulee XML-muodossa ja sisääntulon parsimisen tehokkuus on avaintekijöitä koko GPS:n tehokkuuden kannalta. Suorituskyvyn parantamisessa keskitytäänki vahvasti XML:n tehokkaampaan käyttöön ja esitetään ehdotuksia sen parantamiseksi.
Resumo:
Avoimesta innovaatiosta ja innovaatioiden tehokkaasta hyödyntämisestä on tulossa tärkeitä osia yritysten T&K-prosesseihin. Diplomityön tarkoituksena on luoda viitekehys teknologioiden, jotka eivät kuulu yrityksen ydinliiketoimintaan, tehokkaampaan hallinnointiin tutkimusorganisaatiossa. Konstruktiivinen viitekehys on rakennettu pohjautuen aineettomien pääomien johtamisen ja portfolion hallinnoinnin teorioihin. Lisäksi työssä määritellään työkaluja jatekniikoita ylijäämäteknologioiden arviointiin. Uutta ylijäämäteknologioiden portfoliota voidaan hyödyntää hakukoneena, ideapankkina, kommunikaatiotyökaluna tai teknologioiden markkinapaikkana. Sen johtaminen koostuu tietojen dokumentoinnista järjestelmään, teknologioiden arvioinnista ja portfolion päivityksestä ja ylläpidosta.
Resumo:
Mediatoimialalla eletään murrosvaihetta. Erityisesti sähköisen median alalla uusien ansaintalogiikoiden tunnistaminen ja kehittäminen muodostuu yhä tärkeämmäksi kilpailukyvyn kannalta. Digi- ja maksutelevision tuomat muutokset tämän hetkiseen ansaintamalliin tuovat mukanaan huomattavia haasteita ja sitä kautta myös mahdollisuuksia. Myös muiden sähköisten medioiden rooli tulee kehittymään tulevien vuosien aikana. Internet on jo tällä hetkellä mobiilisti saatavavilla ja television mobiiliratkaisut tekevät tuloaan vauhdilla. Työn tavoitteena on luoda tietojohtamisen malli ja työkalut eli innovaatiopolitiikan viitekehys, jolla MTV Media voi muuttuvassa ja fragmentoituvassa mediakentässä säilyttää edelläkävijyytensä ja innovatiivisuutensa uusia tuotteita ja palveluita kehitettäessä. Työssä luodaan kirjallisuustutkimuksen perusteella malli innovaatiopolitiikan kehittämiseen ja arvioidaan valittujen työkalujen soveltuvuutta yrityksen toiminnassa. Teoreettiseksi innovaatiopolitiikan viitekehykseksi valitaan Nonakan mukaeltu malli tiedon luomisenyhdistämisestä. Nonakan mallin avulla luodaan MTV Medialle oma innovaatiopolitiikan viitekehys. Viitekehykseen sopivia työkaluja esitellään ja niiden sopivuutta viitekehykseen arvioidaan. Lopuksi viitekehystä tarkastellaan teorian ja käytännön näkökulmista MTV Median innovaatiopolitiikan kehittämisessä.
Resumo:
Tämä diplomityö kuvaa viestintä sovelluksen ytimen kehitystyön Symbian-alustalle. Koko sovelluksen vaatimuksena oli vastaamattomiin puheluihin vastaaminen ennalta määritellyillä tekstiviesteillä käyttäjän määrittelemien sääntöjen mukaisesti. Ei-toiminnallisia vaatimuksia olivat resurssien käytön vähentäminen ja uudelleenkäytön mahdollistaminen. Täten tämän työn tavoitteena oli kehittää ydin, joka kapseloi sovelluksen sellaisen toiminnallisuuden, joka on käyttöliittymästä riippumatonta ja uudelleenkäytettävää. Kehitystyössä ohjasi Unified Process, joka on iteroiva, käyttötapauksien ohjaama ja arkkitehtuurikeskeinen ohjelmistoprosessi. Se kannusti käyttämään myös muita teollisuudenalan vakiintuneita menetelmiä, kuten suunnittelumalleja ja visuaalista mallintamista käyttäen Unified Modelling Languagea. Suunnittelumalleja käytettiin kehitystyön aikana ja ohjelmisto mallinnettiin visuaalisesti suunnittelun edistämiseksi ja selkiyttämiseksi. Alustan palveluita käytettiin hyväksi kehitysajan ja resurssien käytön minimoimiseksi. Ytimen päätehtäviksi määrättiin viestien lähettäminen sekä sääntöjen talletus ja tarkistaminen. Sovelluksen eri alueet, eli sovelluspalvelin ja käyttöliittymää, pystyivät käyttämään ydintä ja sillä ei ollut riippuvuuksia käyttöliittymätasolle. Täten resurssien käyttö väheni ja uudelleenkäytettävyys lisääntyi. Viestien lähettäminen toteutettiin Symbian-alustan menetelmin. Sääntöjen tallettamiseen tehtiin tallennuskehys, joka eristää sääntöjen sisäisen ja ulkoisen muodon. Tässä tapauksessa ulkoiseksi tallennustavaksi valittiin relaatiotietokanta. Sääntöjen tarkastaminen toteutettiin tavanomaisella olioiden yhteistoiminnalla. Päätavoite saavutettiin. tämä ja muut hyviksi arvioidut lopputulokset, kuten uudelleenkäytettävyys ja vähentynyt resurssien käyttö, arveltiin juontuvan suunnittelumallien ja Unified Processin käytöstä. Kyseiset menetelmät osoittivat mukautuvansa pieniinkin projekteihin. Menetelmien todettiin myös tukevan ja kannustavan kehitystyön aikaista oppimista, mikä oli välttämätöntä tässä tapauksessa.
Resumo:
Simulaattorit ovat yksinkertaistettuja malleja tietyistä järjestelmän osioista. Niitä käytetään mallintamaan testattavan osion ympärillä olevien muiden osioiden ulkoista toimintaa, jotta testattavalle osiolle saadaan oikeanlainen toimintaympäristö aikaiseksi. Tilakoneita käytetään mallintamaan ohjelmistojen tai niiden osien toimintaa. Sanomaohjatuissa tilakoneissa tilojen vaihdot perustuvat saapuviin sanomiin. Tässä työssä esitellään erään ohjelmiston alijärjestelmän testaamisessa käytettävä arkkitehtuuri, joka perustuu suurelta osin simulaattoreiden käyttöön muiden alijärjestelmien mallintamisessa. Testattava ohjelmisto koostuu enimmäkseen tilakoneista, jotka vaihtavat keskenään sanomia ja ohjaavat näin toistensa tilasiirtymiä. Työn testausympäristö on suunniteltu juuri tämänkaltaisen ohjelmiston testaamiseen. Työssä esiteltävää testausympäristöä myöskin käytettiin useamman kuukauden ajan ja se todettiin toimivaksi. Joitakin testausympäristön käyttöohjeita, käyttökokemuksia sekä siihen liittyviä parannusehdotuksia käydään läpi työn loppuosassa. Erityisesti havaittiin miten tärkeää on testata implementaatiota jo luokka tasolla ennen alijärjestelmä tason testaukseen siirtymistä sekä päädyttiin siihen, että suunnitteluvaiheen pitäisi olla lähemmin liitoksissa alijärjestelmätestaukseen.
Resumo:
Ohjelmistoteollisuudessa pitkiä ja vaikeita kehityssyklejä voidaan helpottaa käyttämällä hyväksi ohjelmistokehyksiä (frameworks). Ohjelmistokehykset edustavat kokoelmaa luokkia, jotka tarjoavat yleisiä ratkaisuja tietyn ongelmakentän tarpeisiin vapauttaen ohjelmistokehittäjät keskittymään sovelluskohtaisiin vaatimuksiin. Hyvin suunniteltujen ohjelmistokehyksien käyttö lisää suunnitteluratkaisujen sekä lähdekoodin uudelleenkäytettävyyttä enemmän kuin mikään muu suunnittelulähestymistapa. Tietyn kohdealueen tietämys voidaan tallentaa ohjelmistokehyksiin, joista puolestaan voidaan erikoistaa viimeisteltyjä ohjelmistotuotteita. Tässä diplomityössä kuvataan ohjelmistoagentteihin (software agents) perustuvaa ohjelmistokehyksen suunnittelua toteutusta. Pääpaino työssä on vaatimusmäärittelyä vastaavan suunnitelman sekä toteutuksen kuvaaminen ohjelmistokehykselle, josta voidaan erikoistaa erilaiseen tiedonkeruuseen kykeneviä ohjelmistoja Internet ympäristöön. Työn kokeellisessa osuudessa esitellään myös esimerkkisovellus, joka perustuu työssä kehitettyyn ohjelmistokehykseen.
Resumo:
Diplomityössä luodaan viitekehys tuotetiedonhallintajärjestelmän esisuunnittelua varten. Siinä on kolme ulottuvuutta: lisäarvontuotto-, toiminnallisuus- ja ohjelmistoulottuvuus. Viitekehys auttaa- tunnistamaan lisäarvontuottokomponentit, joihin voidaan vaikuttaa tiettyjen ohjelmistoluokkien tarjoamilla tuotetiedonhallintatoiminnallisuuksilla. Viitekehyksen järjestelmäsuunnittelullista näkökulmaa hyödynnetään tutkittavissa yritystapauksissa perustuen laskentamatriisin muotoon mallinnettuihin ulottuvuuksien välisiin suhteisiin. Matriisiin syötetään lisäarvontuotto- ja toiminnallisuuskomponenttien saamat tärkeydet kohdeyrityksessä suoritetussa haastattelututkimuksessa. Matriisin tuotos on tietyn ohjelmiston soveltuvuus kyseisen yrityksen tapauksessa. Soveltuvuus on joukko tunnuslukuja, jotka analysoidaan tulostenkäsittelyvaiheessa. Soveltuvuustulokset avustavat kohdeyritystä sen valitessa lähestymistapaansa tuotetiedonhallintaan - ja kuvaavat esisuunnitellun tuotetiedonhallintajärjestelmän. Viitekehyksen rakentaminen vaatii perinpohjaisen lähestymistavan merkityksellisten lisäarvontuotto- ja toiminnallisuuskomponenttien sekä ohjelmistoluokkien määrittämiseen. Määritystyö perustuu työssä yksityiskohtaisesti laadittujen menetelmien ja komponenttiryhmitysten hyödyntämiselle. Kunkin alueen analysointi mahdollistaa viitekehyksen ja laskentamatriisin rakentamisen yhdenmukaisten määritysten perusteella. Viitekehykselle on ominaista sen muunneltavuus. Nykymuodossaan se soveltuu elektroniikka- ja high-tech yrityksille. Viitekehystä voidaan hyödyntää myös muilla toimialoilla muokkaamalla lisäarvontuottokomponentteja kunkin toimialan intressien mukaisesti. Vastaavasti analysoitava ohjelmisto voidaan valita tapauskohtaisesti. Laskentamatriisi on kuitenkin ensin päivitettävä valitun ohjelmiston kyvykkyyksillä, minkä jälkeen viitekehys voi tuottaa soveltuvuustuloksia kyseiseen yritystapaukseen perustuen