866 resultados para the Fuzzy Colour Segmentation Algorithm
Resumo:
The analysis of the shape of excitation-emission matrices (EEMs) is a relevant tool for exploring the origin, transport and fate of dissolved organic matter (DOM) in aquatic ecosystems. Within this context, the decomposition of EEMs is acquiring a notable relevance. A simple mathematical algorithm that automatically deconvolves individual EEMs is described, creating new possibilities for the comparison of DOM fluorescence properties and EEMs that are very different from each other. A mixture model approach is adopted to decompose complex surfaces into sub-peaks. The laplacian operator and the Nelder-Mead optimisation algorithm are implemented to individuate and automatically locate potential peaks in the EEM landscape. The EEMs of a simple artificial mixture of fluorophores and DOM samples collected in a Mediterranean river are used to describe the model application and to illustrate a strategy that optimises the search for the optimal output.
Resumo:
Evoluutioalgoritmit ovat viime vuosina osoittautuneet tehokkaiksi menetelmiksi globaalien optimointitehtävien ratkaisuun. Niiden vahvuutena on etenkin yleiskäyttöisyys ja kyky löytää globaali ratkaisu juuttumatta optimoitavan tavoitefunktion paikallisiin optimikohtiin. Tässä työssä on tavoitteena kehittää uusi, normaalijakaumaan perustuva mutaatio-operaatio differentiaalievoluutioalgoritmiin, joka on eräs uusimmista evoluutiopohjaisista optimointialgoritmeista. Menetelmän oletetaan vähentävän entisestään sekä populaation ennenaikaisen suppenemisen, että algoritmin tilojen juuttumisen riskiä ja se on teoreettisesti osoitettavissa suppenevaksi. Tämä ei päde alkuperäisen differentiaalievoluution tapauksessa, koska on voitu osoittaa, että sen tilanmuutokset voivat pienellä todennäköisyydellä juuttua. Työssä uuden menetelmän toimintaa tarkastellaan kokeellisesti käyttäen testiongelmina monirajoiteongelmia. Rajoitefunktioiden käsittelyyn käytetään Jouni Lampisen kehittämää, Pareto-optimaalisuuden periaatteeseen perustuvaa menetelmää. Samalla saadaan kerättyä lisää kokeellista näyttöä myös tämän menetelmän toiminnasta. Kaikki käytetyt testiongelmat kyettiin ratkaisemaan sekä alkuperäisellä differentiaalievoluutiolla, että uutta mutaatio-operaatiota käyttävällä versiolla. Uusi menetelmä osoittautui kuitenkin luotettavammaksi sellaisissa tapauksissa, joissa alkuperäisellä algoritmilla oli vaikeuksia. Lisäksi useimmat ongelmat kyettiin ratkaisemaan luotettavasti pienemmällä populaation koolla kuin alkuperäistä differentiaalievoluutiota käytettäessä. Uuden menetelmän käyttö myös mahdollistaa paremmin sellaisten kontrolliparametrien käytön, joilla hausta saadaan rotaatioinvariantti. Laskennallisesti uusi menetelmä on hieman alkuperäistä differentiaalievoluutiota raskaampi ja se tarvitsee yhden kontrolliparametrin enemmän. Uusille kontrolliparametreille määritettiin kuitenkin mahdollisimman yleiskäyttöiset arvot, joita käyttämällä on mahdollista ratkaista suuri joukko erilaisia ongelmia.
Resumo:
Tämä tutkimus kuuluu ympäristöklusterin tutkimusprojektiin "Materiaalivirrat ja energiankäyttö metsäteollisuusintegraateissa ja niihin liittyvät toimintastrategiat ympäristövaikutuslähtöisesti". Työn päätavoitteena oli kehittää laskentapohja, jossa alkuarvoja muuttamalla voidaan helposti määritellä metsäteollisuuden jäte- eli sivuainevirtojen käsittelystä ja hyötykäytöstä aiheutuvia hiilidioksidivaikutuksia. Tutkimuksen sisältö pohjautuu pääosin projektin muihin tutkimuksiin, joissa on tarkasteltu sivuainevirtojen hyötykäytön teknisiä ja taloudellisia reunaehtoja. Metsäteollisuuden tärkeimmiksi sivuainevirroiksi voidaan määritellä tuhka, soodasakka, jätevedenkäsittelyn liete sekä pastaliete. Tässä tutkimuksessa on laskettu näiden sivuainevirtojen nykyisten käsittelymenetelmien hiilidioksidivaikutukset projektissa mukana olevilla tehtailla ja vertailtu niitä potentiaalisempien uusien käsittely- ja hyötykäyttömenetelmien vaikutuksiin. Työstä saatujen tulosten perusteella voidaan arvioida, että tuhkan osalta hiilidioksidivaikutukset ovat suhteellisen merkityksettömiä. Pastalietteen osalta prosessiin palautus vaikuttaisi parhaalta menetelmältä, koska tuorepastan tuotannosta aiheutuu varsin runsaasti hiilidioksidipäästöjä. Suurin merkitys kokonaispäästöjen kannalta näyttäisi kuitenkin olevan jätevedenkäsittelyn lietteen ja soodasakan käsittelymenetelmillä. Soodasakan orgaaninen aines aiheuttaa kaatopaikoilla suurehkot metaanipäästöt, joita hyötykäytöllä voitaisiin vähentää merkittävästi. Jätevedenkäsittelyn lietteen osalta uudet kuivauksen tehostamismenetelmät parantavat lietteen poltettavuutta, jolloin myös hiilidioksidipäästöt pienenevät. Toisaalta suuremman kuiva-ainepitoisuuden vuoksi myös varastointi voisi olla mahdollista, jolloin lietettä ei tarvitsisi läjittää enää kaatopaikoille, ja myös kaatopaikkapäästöiltä vältyttäisiin.
Resumo:
Työn tavoitteena oli etsiä vaihtoehtoja paperiteollisuuden kiertovesien ja pastapitoisten jätevesien suodatusprosesseissa tällä hetkellä käytössä oleville kalvoille. Työssä pyrittiin myös määrittämään tekijöitä, joiden avulla voitaisiin ennustaa polymeerikalvon käyttäytymistä erilaisissa paperiteollisuuden kalvosovelluksissa. Työn kirjallisessa osassa tarkasteltiin polymeerikalvojen ominaisuuksia, jotka vaikuttavat kalvojen käyttäytymiseen suodatusprosesseissa. Työssä esiteltiin myös tavallisimmat kalvomateriaalit ja polymeerikalvojen valmistustavat sekä paperiteollisuuden kalvosovelluksia. Paperiteollisuuden kalvosuodatussovellukset eroavat toisistaan huomattavasti toimintaolosuhteiltaan ja käyttötarkoituksiltaan. Tästä johtuen on hankalaa löytää yhteisiä tekijöitä, joiden perusteella voitaisiin ennustaa kalvon käyttäytymistä eri sovelluksissa. Kalvon hydrofiilisyyden todettiin kuitenkin vaikuttavan positiivisesti suodatustapahtumaan useissa sovelluksissa. Kokeellisessa osassa verrattiin erilaisten polymeerikalvojen ja referenssikalvojen toimintaa happaman kirkkaan suodoksen ja pastapitoisen veden suodatuksessa. Kirkkaan suodoksen suodatuskokeet tehtiin UPM-Kymmene Oy:n Kaukaan tehtailla. Pastapitoista jätevettä mallinnettiin syöttöpanoksilla, jotka tehtiin laimentamalla CTC:n valmistamaa LWC-pastaa. Suodatukset tehtiin CR 200/1- ja CR 550/10 -suodattimilla. Kirkkaan suodoksen suodatuksissa käytettiin referenssikalvona regeneroidusta selluloosasta ja pastapitoisen veden suodatuksessa aromaattisesta polyamidista valmistettua kalvoa. Kirkkaan suodoksen koesuodatusten perusteella todettiin, ettei minkään vertailtavan ultrasuodatuskalvon suodatuskapasiteetti ollut yhtä korkea kuin referenssikalvon. Referenssikalvon toiminta suodatuksessa oli myös vakaata syötön laadun muutoksista huolimatta. Todennäköisesti referenssikalvon erittäin hydrofiilinen luonne tekee siitä vertailtavia kalvoja sopivamman kirkkaan suodoksen suodatukseen. Pastapitoisen veden suodatustulosten perusteella referenssikalvolle löytyi useita potentiaalisia korvaajia. Näistä parhaan kalvon valitseminen edellyttää kuitenkin jatkotutkimuksia. SEM-analyysituloksista huomattiin, että tietyntyyppinen kalvorakenne parantaa kalvon toimintaa pastapitoisen veden suodatuksessa.
Resumo:
In metallurgic plants a high quality metal production is always required. Nowadays soft computing applications are more often used for automation of manufacturing process and quality control instead of mechanical techniques. In this thesis an overview of soft computing methods presents. As an example of soft computing application, an effective model of fuzzy expert system for the automotive quality control of steel degassing process was developed. The purpose of this work is to describe the fuzzy relations as quality hypersurfaces by varying number of linguistic variables and fuzzy sets.
Resumo:
Tutkimuksen tavoitteet Tutkimuksen tavoitteina oli selvittää millaisella toimintamallilla voidaan varmistaa asiakaslähtöinen ja kustannustehokas toimintatapa, joka tuottaa tasalaatuiset palvelut sekä varmistaa yhteisesti sovittujen toimenpiteiden toteutumisen case-yrityksen ylläpitämissä henkilöstöravintoloissa nopeasti ja tehokkaasti. Tutkimusongelmaa lähestyttiin strategisesta näkökulmasta. Kilpailustrategian avulla yritys asemoidaan ympäristöönsä sekä valitaan käytettävät kilpailukeinot. Kilpailuetua haetaan toimintamalleja ja niiden osia kehittämällä. Tällaisia ovat esimerkiksi oppiminen, organisaatiorakenne ja asiakkuuden hallinta. Kustannustehokkuus aikaansaadaan ketjuohjauksella ja asiakaslähtöisyys hyväksikäyttämällä massaräätälöintiä. Asiakasryhmien määrittämiseen käytettiin segmentoinnin teoriaa. Lähdeaineisto Teoriaosuudessa lähdeaineistona käytettiin kotimaista ja ulkomaista kirjallisuutta, jotka käsittelevät strategista ajattelua, kilpailustrategiaa, kilpailuetua, ketjutoimintaa, massaräätälöintiä, segmentointia ja asiakkuuden hallintaa. Empiriaosuuden lähdeaineistona toimivat case-yrityksen strategiaprosessia varten keräämät materiaalit sekä tutkijan omat kokemukset projektin vetäjänä. Tulokset Lopputuloksena case-yritykselle ehdotetaan tutkimuksessa rakentuneita valikoimien- ja toiminnanohjausmalleja. Valikoimien ohjausmallin muodostamiseen käytettiin massaräätälöinnin teoriaa. Toiminnanohjausmalli rakennettiin puolestaan ketjutoiminnan teoriaan perustuen.
Resumo:
AIMS: We aimed to assess the prevalence and management of clinical familial hypercholesterolaemia (FH) among patients with acute coronary syndrome (ACS). METHODS AND RESULTS: We studied 4778 patients with ACS from a multi-centre cohort study in Switzerland. Based on personal and familial history of premature cardiovascular disease and LDL-cholesterol levels, two validated algorithms for diagnosis of clinical FH were used: the Dutch Lipid Clinic Network algorithm to assess possible (score 3-5 points) or probable/definite FH (>5 points), and the Simon Broome Register algorithm to assess possible FH. At the time of hospitalization for ACS, 1.6% had probable/definite FH [95% confidence interval (CI) 1.3-2.0%, n = 78] and 17.8% possible FH (95% CI 16.8-18.9%, n = 852), respectively, according to the Dutch Lipid Clinic algorithm. The Simon Broome algorithm identified 5.4% (95% CI 4.8-6.1%, n = 259) patients with possible FH. Among 1451 young patients with premature ACS, the Dutch Lipid Clinic algorithm identified 70 (4.8%, 95% CI 3.8-6.1%) patients with probable/definite FH, and 684 (47.1%, 95% CI 44.6-49.7%) patients had possible FH. Excluding patients with secondary causes of dyslipidaemia such as alcohol consumption, acute renal failure, or hyperglycaemia did not change prevalence. One year after ACS, among 69 survivors with probable/definite FH and available follow-up information, 64.7% were using high-dose statins, 69.0% had decreased LDL-cholesterol from at least 50, and 4.6% had LDL-cholesterol ≤1.8 mmol/L. CONCLUSION: A phenotypic diagnosis of possible FH is common in patients hospitalized with ACS, particularly among those with premature ACS. Optimizing long-term lipid treatment of patients with FH after ACS is required.
Resumo:
Recent advances in machine learning methods enable increasingly the automatic construction of various types of computer assisted methods that have been difficult or laborious to program by human experts. The tasks for which this kind of tools are needed arise in many areas, here especially in the fields of bioinformatics and natural language processing. The machine learning methods may not work satisfactorily if they are not appropriately tailored to the task in question. However, their learning performance can often be improved by taking advantage of deeper insight of the application domain or the learning problem at hand. This thesis considers developing kernel-based learning algorithms incorporating this kind of prior knowledge of the task in question in an advantageous way. Moreover, computationally efficient algorithms for training the learning machines for specific tasks are presented. In the context of kernel-based learning methods, the incorporation of prior knowledge is often done by designing appropriate kernel functions. Another well-known way is to develop cost functions that fit to the task under consideration. For disambiguation tasks in natural language, we develop kernel functions that take account of the positional information and the mutual similarities of words. It is shown that the use of this information significantly improves the disambiguation performance of the learning machine. Further, we design a new cost function that is better suitable for the task of information retrieval and for more general ranking problems than the cost functions designed for regression and classification. We also consider other applications of the kernel-based learning algorithms such as text categorization, and pattern recognition in differential display. We develop computationally efficient algorithms for training the considered learning machines with the proposed kernel functions. We also design a fast cross-validation algorithm for regularized least-squares type of learning algorithm. Further, an efficient version of the regularized least-squares algorithm that can be used together with the new cost function for preference learning and ranking tasks is proposed. In summary, we demonstrate that the incorporation of prior knowledge is possible and beneficial, and novel advanced kernels and cost functions can be used in algorithms efficiently.
Resumo:
Colouration may either reflect a discrete polymorphism potentially related to life-history strategies, a continuous signal related to individual quality or a combination of both. Recently, Vercken et al. [J. Evol. Biol. (2007) 221] proposed three discrete ventral colour morphs in female common lizards, Lacerta vivipara, and suggested that they reflect alternative reproductive strategies. Here, we provide a quantitative assessment of the phenotypic distribution and determinants of the proposed colour polymorphism. Based on reflectance spectra, we found no evidence for three distinct visual colour classes, but observed continuous variation in colour from pale yellow to orange. Based on a 2-year experiment, we also provide evidence for reversible colour plasticity in response to a manipulation of the adult population sex ratio; yet, a significant portion of the colour variation was invariant throughout an adult female's life. Our results are thus in agreement with continuous colour variation in adults determined by environmental factors and potentially also by genetic factors.
Resumo:
In the present work, the pH dependent colour change of the crude flower extracts is suggested as subject in teaching chemical or acid-base equilibria, visual indicators and some aspects of spectrophotometric concepts and applications. The vegetal species used are commonly found in Brazil, and the extraction methodology proposed is inexpensive and easy to perform in secondary schools and in general chemistry or instrumental undergraduate courses. A bibliographic review about the use of vegetal extracts in chemical education and a discussion of the flower colour are also presented.
Resumo:
Simultaneous localization and mapping(SLAM) is a very important problem in mobile robotics. Many solutions have been proposed by different scientists during the last two decades, nevertheless few studies have considered the use of multiple sensors simultane¬ously. The solution is on combining several data sources with the aid of an Extended Kalman Filter (EKF). Two approaches are proposed. The first one is to use the ordinary EKF SLAM algorithm for each data source separately in parallel and then at the end of each step, fuse the results into one solution. Another proposed approach is the use of multiple data sources simultaneously in a single filter. The comparison of the computational com¬plexity of the two methods is also presented. The first method is almost four times faster than the second one.
Resumo:
LWC-syväpainopaperilta vaaditaan hyvän ajettavuuden, kiillon ja sileyden ohella hyvää opasiteettia. Tämä on asettanut haasteita LWC-paperin valmistajille paperin neliömassojen laskiessa. Tässä diplomityössä etsittiin keinoja parantaa kevyiden LWC-syväpainolajien opasiteettia heikentämättä oleellisesti muita tärkeitä paperin ominaisuuksia. Tavoitteena oli nostaa CR48-lajin opasiteetti tavoitearvoon 90 %. Työn kirjallisuusosassa perehdyttiin paperin optisten ominaisuuksien teoriaan sekä raaka-aineisiin ja prosessin osiin, joilla on vaikutusta paperin opasiteettiin. Työn kokeellisessa osassa tutkittiin olemassa olevan aineiston perusteella tekijöitä, joilla uskottiin olevan vaikutusta CR48-lajin opasiteettiin. Tutkimuksen ja kirjallisuuden perusteella ajettiin tehdaskoeajoa, joiden avulla pyrittiin parantamaan paperin opasiteettia. CR48-lajin opasiteettitavoite saavutettiin kolmella eri tavalla. Opasiteettitavoite saavutettiin, kun paperin vaaleus säädettiin tavoitearvoon pigmenttivärin avulla tumman hierteen sijasta. Tällöin väripigmentin määrää päällystyspastassa nostettiin 0,01 osaa ja valkaistun hierteen osuus kokonaishierteen määrästä oli 100 %. Vaaleuden säätö pastavärillä oli käytännössä hidasta ja hankalaa. Opasiteettitavoite saavutettiin myös, kun hierre jauhettiin täysin koeterillä. Koeterillä tapahtuva jauhatus oli rajumpaa ja katkovampaa kuin perinteisillä terillä, joten hienoaineen lisääntyminen ja kuidun lyheneminen paransivat paperin opasiteettia, mutta lujuudet huononivat. Lisäksi tavoiteopasiteetti saavutettiin, kun sellun osuutta vähennettiin 8 %-yksikköä. Lujuuden säilymisen kannalta sellun vähennys oli parempi keino opasiteetin parantamiseksi kuin hierteen jauhaminen koeterillä. Koeajojen perusteella pohjapaperin tuhkapitoisuuden nostolla ja hierteen CSF-luvun alentamisella ei ollut vaikutusta paperin opasiteettiin. Lisäksi 100 %:nen koeterillä jauhettu sahahakehierre antoi paperille huonomman opasiteetin kuin hierre, josta puolet oli jauhettu koeterillä ja raaka-aineesta 25 % oli sahahaketta.
Resumo:
This thesis deals with distance transforms which are a fundamental issue in image processing and computer vision. In this thesis, two new distance transforms for gray level images are presented. As a new application for distance transforms, they are applied to gray level image compression. The new distance transforms are both new extensions of the well known distance transform algorithm developed by Rosenfeld, Pfaltz and Lay. With some modification their algorithm which calculates a distance transform on binary images with a chosen kernel has been made to calculate a chessboard like distance transform with integer numbers (DTOCS) and a real value distance transform (EDTOCS) on gray level images. Both distance transforms, the DTOCS and EDTOCS, require only two passes over the graylevel image and are extremely simple to implement. Only two image buffers are needed: The original gray level image and the binary image which defines the region(s) of calculation. No other image buffers are needed even if more than one iteration round is performed. For large neighborhoods and complicated images the two pass distance algorithm has to be applied to the image more than once, typically 3 10 times. Different types of kernels can be adopted. It is important to notice that no other existing transform calculates the same kind of distance map as the DTOCS. All the other gray weighted distance function, GRAYMAT etc. algorithms find the minimum path joining two points by the smallest sum of gray levels or weighting the distance values directly by the gray levels in some manner. The DTOCS does not weight them that way. The DTOCS gives a weighted version of the chessboard distance map. The weights are not constant, but gray value differences of the original image. The difference between the DTOCS map and other distance transforms for gray level images is shown. The difference between the DTOCS and EDTOCS is that the EDTOCS calculates these gray level differences in a different way. It propagates local Euclidean distances inside a kernel. Analytical derivations of some results concerning the DTOCS and the EDTOCS are presented. Commonly distance transforms are used for feature extraction in pattern recognition and learning. Their use in image compression is very rare. This thesis introduces a new application area for distance transforms. Three new image compression algorithms based on the DTOCS and one based on the EDTOCS are presented. Control points, i.e. points that are considered fundamental for the reconstruction of the image, are selected from the gray level image using the DTOCS and the EDTOCS. The first group of methods select the maximas of the distance image to new control points and the second group of methods compare the DTOCS distance to binary image chessboard distance. The effect of applying threshold masks of different sizes along the threshold boundaries is studied. The time complexity of the compression algorithms is analyzed both analytically and experimentally. It is shown that the time complexity of the algorithms is independent of the number of control points, i.e. the compression ratio. Also a new morphological image decompression scheme is presented, the 8 kernels' method. Several decompressed images are presented. The best results are obtained using the Delaunay triangulation. The obtained image quality equals that of the DCT images with a 4 x 4
Resumo:
Simulation has traditionally been used for analyzing the behavior of complex real world problems. Even though only some features of the problems are considered, simulation time tends to become quite high even for common simulation problems. Parallel and distributed simulation is a viable technique for accelerating the simulations. The success of parallel simulation depends heavily on the combination of the simulation application, algorithm and message population in the simulation is sufficient, no additional delay is caused by this environment. In this thesis a conservative, parallel simulation algorithm is applied to the simulation of a cellular network application in a distributed workstation environment. This thesis presents a distributed simulation environment, Diworse, which is based on the use of networked workstations. The distributed environment is considered especially hard for conservative simulation algorithms due to the high cost of communication. In this thesis, however, the distributed environment is shown to be a viable alternative if the amount of communication is kept reasonable. Novel ideas of multiple message simulation and channel reduction enable efficient use of this environment for the simulation of a cellular network application. The distribution of the simulation is based on a modification of the well known Chandy-Misra deadlock avoidance algorithm with null messages. The basic Chandy Misra algorithm is modified by using the null message cancellation and multiple message simulation techniques. The modifications reduce the amount of null messages and the time required for their execution, thus reducing the simulation time required. The null message cancellation technique reduces the processing time of null messages as the arriving null message cancels other non processed null messages. The multiple message simulation forms groups of messages as it simulates several messages before it releases the new created messages. If the message population in the simulation is suffiecient, no additional delay is caused by this operation A new technique for considering the simulation application is also presented. The performance is improved by establishing a neighborhood for the simulation elements. The neighborhood concept is based on a channel reduction technique, where the properties of the application exclusively determine which connections are necessary when a certain accuracy for simulation results is required. Distributed simulation is also analyzed in order to find out the effect of the different elements in the implemented simulation environment. This analysis is performed by using critical path analysis. Critical path analysis allows determination of a lower bound for the simulation time. In this thesis critical times are computed for sequential and parallel traces. The analysis based on sequential traces reveals the parallel properties of the application whereas the analysis based on parallel traces reveals the properties of the environment and the distribution.
Resumo:
Tässä diplomityössä optimoitiin nelivaiheinen 1 MWe höyryturbiinin prototyyppimalli evoluutioalgoritmien avulla sekä tutkittiin optimoinnista saatuja kustannushyötyjä. Optimoinnissa käytettiin DE – algoritmia. Optimointi saatiin toimimaan, mutta optimoinnissa käytetyn laskentasovelluksen (semiempiirisiin yhtälöihin perustuvat mallit) luonteesta johtuen optimoinnin tarkkuus CFD – laskennalla suoritettuun tarkastusmallinnukseen verrattuna oli jonkin verran toivottua pienempi. Tulosten em. epätarkkuus olisi tuskin ollut vältettävissä, sillä ongelma johtui puoliempiirisiin laskentamalleihin liittyvistä lähtöoletusongelmista sekä epävarmuudesta sovitteiden absoluuttisista pätevyysalueista. Optimoinnin onnistumisen kannalta tällainen algebrallinen mallinnus oli kuitenkin välttämätöntä, koska esim. CFD-laskentaa ei olisi mitenkään voitu tehdä jokaisella optimointiaskeleella. Optimoinnin aikana ongelmia esiintyi silti konetehojen riittävyydessä sekä sellaisen sopivan rankaisumallin löytämisessä, joka pitäisi algoritmin matemaattisesti sallitulla alueella, muttei rajoittaisi liikaa optimoinnin edistymistä. Loput ongelmat johtuivat sovelluksen uutuudesta sekä täsmällisyysongelmista sovitteiden pätevyysalueiden käsittelyssä. Vaikka optimoinnista saatujen tulosten tarkkuus ei ollut aivan tavoitteen mukainen, oli niillä kuitenkin koneensuunnittelua edullisesti ohjaava vaikutus. DE – algoritmin avulla suoritetulla optimoinnilla saatiin turbiinista noin 2,2 % enemmän tehoja, joka tarkoittaa noin 15 000 € konekohtaista kustannushyötyä. Tämä on yritykselle erittäin merkittävä konekohtainen kustannushyöty. Loppujen lopuksi voitaneen sanoa, etteivät evoluutioalgoritmit olleet parhaimmillaan prototyyppituotteen optimoinnissa. Evoluutioalgoritmeilla teknisten laitteiden optimoinnissa piilee valtavasti mahdollisuuksia, mutta se vaatii kypsän sovelluskohteen, joka tunnetaan jo entuudestaan erinomaisesti tai on yksinkertainen ja aukottomasti laskettavissa.