136 resultados para Aggregation process
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
The objective of this thesis is to develop and generalize further the differential evolution based data classification method. For many years, evolutionary algorithms have been successfully applied to many classification tasks. Evolution algorithms are population based, stochastic search algorithms that mimic natural selection and genetics. Differential evolution is an evolutionary algorithm that has gained popularity because of its simplicity and good observed performance. In this thesis a differential evolution classifier with pool of distances is proposed, demonstrated and initially evaluated. The differential evolution classifier is a nearest prototype vector based classifier that applies a global optimization algorithm, differential evolution, to determine the optimal values for all free parameters of the classifier model during the training phase of the classifier. The differential evolution classifier applies the individually optimized distance measure for each new data set to be classified is generalized to cover a pool of distances. Instead of optimizing a single distance measure for the given data set, the selection of the optimal distance measure from a predefined pool of alternative measures is attempted systematically and automatically. Furthermore, instead of only selecting the optimal distance measure from a set of alternatives, an attempt is made to optimize the values of the possible control parameters related with the selected distance measure. Specifically, a pool of alternative distance measures is first created and then the differential evolution algorithm is applied to select the optimal distance measure that yields the highest classification accuracy with the current data. After determining the optimal distance measures for the given data set together with their optimal parameters, all determined distance measures are aggregated to form a single total distance measure. The total distance measure is applied to the final classification decisions. The actual classification process is still based on the nearest prototype vector principle; a sample belongs to the class represented by the nearest prototype vector when measured with the optimized total distance measure. During the training process the differential evolution algorithm determines the optimal class vectors, selects optimal distance metrics, and determines the optimal values for the free parameters of each selected distance measure. The results obtained with the above method confirm that the choice of distance measure is one of the most crucial factors for obtaining higher classification accuracy. The results also demonstrate that it is possible to build a classifier that is able to select the optimal distance measure for the given data set automatically and systematically. After finding optimal distance measures together with optimal parameters from the particular distance measure results are then aggregated to form a total distance, which will be used to form the deviation between the class vectors and samples and thus classify the samples. This thesis also discusses two types of aggregation operators, namely, ordered weighted averaging (OWA) based multi-distances and generalized ordered weighted averaging (GOWA). These aggregation operators were applied in this work to the aggregation of the normalized distance values. The results demonstrate that a proper combination of aggregation operator and weight generation scheme play an important role in obtaining good classification accuracy. The main outcomes of the work are the six new generalized versions of previous method called differential evolution classifier. All these DE classifier demonstrated good results in the classification tasks.
Resumo:
Abstract
Resumo:
Abstract
Resumo:
The software development industry is constantly evolving. The rise of the agile methodologies in the late 1990s, and new development tools and technologies require growing attention for everybody working within this industry. The organizations have, however, had a mixture of various processes and different process languages since a standard software development process language has not been available. A promising process meta-model called Software & Systems Process Engineering Meta- Model (SPEM) 2.0 has been released recently. This is applied by tools such as Eclipse Process Framework Composer, which is designed for implementing and maintaining processes and method content. Its aim is to support a broad variety of project types and development styles. This thesis presents the concepts of software processes, models, traditional and agile approaches, method engineering, and software process improvement. Some of the most well-known methodologies (RUP, OpenUP, OpenMethod, XP and Scrum) are also introduced with a comparison provided between them. The main focus is on the Eclipse Process Framework and SPEM 2.0, their capabilities, usage and modeling. As a proof of concept, I present a case study of modeling OpenMethod with EPF Composer and SPEM 2.0. The results show that the new meta-model and tool have made it possible to easily manage method content, publish versions with customized content, and connect project tools (such as MS Project) with the process content. The software process modeling also acts as a process improvement activity.
Resumo:
Diplomityön tarkoituksena oli löytää keino korkean mangaanipitoisuuden hallintaan ECF-valkaisussa. Kirjallisuusosassa käsiteltiin eri metallien ja kuidun vuorovaikutuksia sekä niiden vaikutuksia prosessiin. Lisäksi käytiin läpi sellunvalmituksen yleisimpiä metallienhallintamenetelmiä. Työn kokeellisessa osassa tehtiin esikokeina laboratoriokokeita, jotta löydettiin oikeat kelatointistrategiat tehdasmittakaavan koeajoille. Laboratoriovalkaisut suoritettiin kuudella eri kemikaalilla käyttäen DD3-pesurin jälkeistä massaa ja samanlaisia parametrejä kuin tehdasvalkaisussa. Kolmesta eri valkaisusekvenssistä paras tulos saavutettiin D0-QEP-sekvenssillä. Tehdasmittakaavan koeajojen tavoitteena oli saavuttaa alle 1 mg/kg jäännösmangaanipitoisuus valkaistussa massassa ja korkeampi vaaleus EOP-vaiheessa pienemmällä klooridioksidin kulutuksella. Koeajoissa käytettiinDTPA:ta ja EDTA:ta kahdeksassa eri koepisteessä. Pienimpiin jäännöspitoisuuksiin päästiin koepisteissä, joissa kelatointiaine annosteltiin ennen valkaisun viimeistä pesuvaihetta tai sen jälkeen. Samanlaisia tuloksia saavutettiin koepisteissä, joissa kelatointiaine lisättiin suoraan EOP-vaiheeseen. Tällöin kelatointiaineen käyttö johti myös korkeampaan vaaleuteen EOP-vaiheessa pienemmällä kappakertoimella kuin referenssissä. Säästöt klooridioksidin kulutuksessa eivät olleet kuitenkaan tarpeeksi suuret kattaakseen kelatointiaineiden käytön kustannuksia. Kustannustehokkain tapa kontrolloida jäännösmangaanipitoisuutta oli EDTA:n annostelu D2 DD-pesurin jälkeen. Haittapuolena tälläisessä kelatoinnissa oli metallikompleksien palautuminen valkaisuun kuivauskoneen kiertoveden mukana. Tärkeimmät onnistuneeseen kelatointiin vaikuttavat parametrit olivat lajittelussa käytetyn rikkihapon annos, D0-vaiheen pH ja D0 DD-pesurin pesutehokkuus.
Resumo:
Työn päätavoitteena oli tuoda esiin tärkeimmät julkistamisprosessin tehokkuuteen vaikuttavat tekijät. Tutkimuksessa tarkasteltiin aihetta julkistamisprojektien vetäjän näkökulmasta. Kirjallinen selvitys kattaa keskeisimmät ohjelmistoprosessin, palvelun laadun sekä projektihallinnan teoriat. Kokeellisena aineistona käytettiin asiakkailta ja myynnin sekä käyttöönoton organisaatioilta tullutta palautetta ja asiantuntijahaastatteluita. Case-tuotteena tarkasteltiin suuren kansainvälisen yrityksen jälleenmyymää leikkaussalihallinnan ohjelmistoa. Tärkeimpiä julkistamisprosessin tehokkuuteen vaikuttavia tekijöitä ovat tiekartan ja julkistamispakettien sisällön hallinta, projektin aikataulujen pitäminen, rehellinen ja nopea kommunikaatio myyntikanavaan ja asiakkaille, sekä hyvin toteutettu testaus. Työssä käydään läpi esimerkkistrategioita kehittymiseen näillä alueilla.
Resumo:
Työn tavoitteena oli tutkia hyvän asiakasreferenssin ominaisuuksia suodatinvalmistaja Laroxin myynnin ja huollon sekä yrityksen asiakkaiden näkökulmasta. Larox voi käyttää saatua tietoa referenssien tehokkaampaan valintaan ja hyödyntämiseen. Kaksi internet-kyselyä toteutettiin, välineenä Webropol. Alustava kysely sunnattiin Laroxin myynnille ja huollolle. Kysely koostui viidestä kategoriasta asiakasreferenssejä, joiden tärkeyttä arvioitiin, sekä vapaista vastauksista. Tunnistettuja hyvän asiakasreferenssin ominaisuuksia ovat hyvä suhde referenssiasiakkaaseen, positiiviset jarehelliset suosittelut asiakkaalta, referenssilaitteen hyvä toimintakyky ja asiakas joka ymmärtää huollon tärkeyden. Pääkysely suunnattiin Laroxin asiakkaille. Tilastollisilla analyyseilla tutkittiin koetun riskin mallinmuuttujien välisiä yhteyksiä. Analyysit eivät paljastaneet merkittäviä riippuvuuksia asiakasreferenssin ominaisuuksien tärkeydessä eritaustaisten vastaajien tai tilannetekijöiden välillä, mutta asiakasreferenssin ominaisuuksien faktorit tukevat mallia. Referenssilaitteiden toimintakyky vaikuttaa tärkeimmältä ja huollon tärkeys on myös merkittävä.
Resumo:
Työn tavoitteena oli selvittää SBU:n varastovaraosien logistinen prosessin tämänhetkinen tilanne verrattuna muihin ja sitä kautta oppia uusia tehokkaita tapoja hallita sitä sekä parantaa sen kilpailukykyä. Selvittäminen tapahtui benchmarkkaamalla SBU:n varastovaraosien logistinen prosessi kahteen sen kilpailijaan ja viiteen muuhun ei kilpailija yritykseen. Bechmarking -aineiston kerääminen tapahtui pääasiassa Inter netin, haastattelujen, bechmarking -kyselyn ja yritysvierailujen avulla. Tulosten vertailu ja analysointi perustui kerättyyn aineistoon. Kriteereiksi lopullista vertailua varten valittiin seikat, joihin liittyvä tieto oli saatavilta suurimmalta osalta bechmarking -yrityksistä. Tuloksena lopullisesta vertailusta muodostettiin "ranking" lista, jossa yritykset on laitettu paremmuus-järjestykseen. Tässä vertailussa SBU sijoittui viimeiseksi ja SBU varastovaraosien logistisessa prosessissa havaittiin olevan useita parannuskohteita. Joka tapauksessa SBU sai paljon tietoa siitä, kuinka muut yritykset hallitsevat prosessinsa ja kuinka SBU:n tulisi tulevaisuudessa hallita oma logistinen prosessinsa ja kuinka se voisi sitä kautta lisätä kilpailukykyään.
Resumo:
Tutkimuksen tavoitteena on tutkia telekommunikaatioalalla toimivan kohdeyrityksen ohjelmistojen toimitusprosessia° Tutkimus keskittyy mallintamaan toimitusprosessin, määrittelemään roolit ja vastuualueet, havaitsemaan ongelmakohdat ja ehdottamaan prosessille kehityskohteita. Näitä tavoitteita tarkastellaan teoreettisten prosessimallinnustekniikoiden ja tietojohtamisen SECI-prosessikehyksen läpi. Tärkein tiedonkeruun lähde oli haastatteluihin perustuva tutkimus, johon osallistuvat kaikki kohdeprosessiin kuuluvat yksiköt. Mallinnettu toimitusprosessi antoi kohdeyritykselle paremman käsityksen tarkasteltavasta prosessista ja siinä toimivien yksiköiden rooleistaja vastuualueista. Parannusehdotuksia olivat tiedonjaon kanavoinnin määritteleminen, luottamuksen ja sosiaalisten verkostojen parantaminen, ja tietojohtamisen laajamittainen implementointi.
Resumo:
3G-radioverkon asetusten hallinnointi suoritetaan säätämällä radioverkkotietokantaan talletettavia parametreja. Hallinnointiohjelmistossa tuhannetradioverkon parametrit näkyvät käyttöliittymäkomponentteina, joita ohjelmiston kehityskaaressa jatkuvasti lisätään, muutetaan ja poistetaan asiakkaan tarpeidenmukaan. Parametrien lisäämisen toteutusprosessi on ohjelmistokehittäjälle työlästä ja mekaanista. Diplomityön tavoitteeksi asetettiin kehittää koodigeneraattori, joka luo kaiken toteutusprosessissa tuotetun koodin automaattisesti niistä määrittelyistä, jotka ovat nykyäänkin saatavilla. Työssä kehitetty generaattori nopeuttaa ohjelmoijan työtä eliminoimalla yhden aikaa vievän ja mekaanisen työvaiheen. Seurauksena saadaan yhtenäisempää ohjelmistokoodia ja säästetään yrityksen ohjelmistotuotannon kuluissa, kun ohjelmoijan taito voidaan keskittää vaativimpiin tehtäviin.