44 resultados para the Fuzzy Colour Segmentation Algorithm


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The main objective of this study was todo a statistical analysis of ecological type from optical satellite data, using Tipping's sparse Bayesian algorithm. This thesis uses "the Relevence Vector Machine" algorithm in ecological classification betweenforestland and wetland. Further this bi-classification technique was used to do classification of many other different species of trees and produces hierarchical classification of entire subclasses given as a target class. Also, we carried out an attempt to use airborne image of same forest area. Combining it with image analysis, using different image processing operation, we tried to extract good features and later used them to perform classification of forestland and wetland.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tämän diplomityön tarkoituksena on tutkia, mitä vaaditaan uutisten samanlaisuuden automaattiseen tunnistamiseen. Uutiset ovat tekstipohjaisia uutisia, jotka on haettu eri uutislähteistä. Uutisista on tarkoitus tunnistaa ensinnäkin ne uutiset, jotka tarkoittavat samaa asiaa, sekä ne uutiset, jotka eivät ole aivan sama asia, mutta liittyvät kuitenkin toisiinsa. Tässä diplomityössä tutkitaan, millä algoritmeilla tämä tunnistus onnistuu tehokkaimmin sekä suomalaisessa, että englanninkielisessä tekstissä. Diplomityössä vertaillaan valmiita algoritmeja. Tavoitteena on valita sellainen algoritmiyhdistelmä, että 90 % vertailluista uutisista tunnistuu oikein. Tutkimuksessa käytetään 2 eri ryhmittelyalgoritmia, sekä 3 eri stemmaus-algoritmia. Näitä algoritmeja vertaillaan sekä uutisten tunnistustehokkuuden, että niiden suorituskyvyn suhteen. Parhaimmaksi stemmaus-algoritmiksi osoittautui sekä suomen-, että englanninkielisten uutisten vertailussa Porterin algoritmi. Ryhmittely-algoritmeista tehokkaammaksi osoittautui yksinkertaisempi erilaisiin tunnuslukuihin perustuva algoritmi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Over 70% of the total costs of an end product are consequences of decisions that are made during the design process. A search for optimal cross-sections will often have only a marginal effect on the amount of material used if the geometry of a structure is fixed and if the cross-sectional characteristics of its elements are property designed by conventional methods. In recent years, optimalgeometry has become a central area of research in the automated design of structures. It is generally accepted that no single optimisation algorithm is suitable for all engineering design problems. An appropriate algorithm, therefore, mustbe selected individually for each optimisation situation. Modelling is the mosttime consuming phase in the optimisation of steel and metal structures. In thisresearch, the goal was to develop a method and computer program, which reduces the modelling and optimisation time for structural design. The program needed anoptimisation algorithm that is suitable for various engineering design problems. Because Finite Element modelling is commonly used in the design of steel and metal structures, the interaction between a finite element tool and optimisation tool needed a practical solution. The developed method and computer programs were tested with standard optimisation tests and practical design optimisation cases. Three generations of computer programs are developed. The programs combine anoptimisation problem modelling tool and FE-modelling program using three alternate methdos. The modelling and optimisation was demonstrated in the design of a new boom construction and steel structures of flat and ridge roofs. This thesis demonstrates that the most time consuming modelling time is significantly reduced. Modelling errors are reduced and the results are more reliable. A new selection rule for the evolution algorithm, which eliminates the need for constraint weight factors is tested with optimisation cases of the steel structures that include hundreds of constraints. It is seen that the tested algorithm can be used nearly as a black box without parameter settings and penalty factors of the constraints.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The objective of this work was to introduce the emerging non-contacting spray coating process and compare it to the existing coating techniques. Particular emphasis was given to the details of the spraying process of paper coating colour and the base paper requirements set by the new coating method. Spraying technology itself is nothing new, but the atomisation process of paper coating colour is quite unknown to the paper industry. The differences between the rheology of painting and coating colours make it very difficult to utilise the existing information from spray painting research. Based on the trials, some basic conclusion can be made:The results of this study suggest that the Brookfield viscosity of spray coating colour should be as low as possible, presently a 50 mPas level is regarded as an optimum. For the paper quality and coater runnability, the solids level should be as high as possible. However, the graininess of coated paper surface and the nozzle wear limits the maximum solids level to 60 % at the moment. Most likelydue to the low solids and low viscosity of the coating colour the low shear Brookfield viscosity correlates very well with the paper and spray fan qualities. High shear viscosity is also important, but yet less significant than the low shear viscosity. Droplet size should be minimized and besides keeping the brrokfield viscosity low that can be helped by using a surfactant or dispersing agent in the coating colour formula. Increasing the spraying pressure in the nozzle can also reduce the droplet size. The small droplet size also improves the coating coverage, since there is hardly any levelling taking place after the impact with the base paper. Because of the lack of shear forces after the application, the pigment particles do not orientate along the paper surface. Therefore the study indicates that based on the present know-how, no quality improvements can be obtained by the use of platy type of pigments. The other disadvantage of them is the rapid deterioration of the nozzle lifetime. Further research in both coating colour rheology and nozzle design may change this in the future, but so far only round shape pigments, like typically calcium carbonate is, can be used with spray coating. The low water retention characteristics of spray coating, enhanced by the low solids and low viscosity, challenge the base paper absorption properties.Filler level has to be low not to increase the number of small pores, which have a great influence on the absorption properties of the base paper. Hydrophobic sizing reduces this absorption and prevents binder migration efficiently. High surface roughness and especially poor formation of the base paper deteriorate thespray coated paper properties. However, pre-calendering of the base paper does not contribute anything to the finished paper quality, at least at the coating colour solids level below 60 %. When targeting a standard offset LWC grade, spraycoating produces similar quality to film coating, but yet blade coating being on a slightly better level. However, because of the savings in both investment and production costs, spray coating may have an excellent future ahead. The porousnature of the spray coated surface offers an optimum substrate for the coldset printing industry to utilise the potential of high quality papers in their business.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis studies gray-level distance transforms, particularly the Distance Transform on Curved Space (DTOCS). The transform is produced by calculating distances on a gray-level surface. The DTOCS is improved by definingmore accurate local distances, and developing a faster transformation algorithm. The Optimal DTOCS enhances the locally Euclidean Weighted DTOCS (WDTOCS) with local distance coefficients, which minimize the maximum error from the Euclideandistance in the image plane, and produce more accurate global distance values.Convergence properties of the traditional mask operation, or sequential localtransformation, and the ordered propagation approach are analyzed, and compared to the new efficient priority pixel queue algorithm. The Route DTOCS algorithmdeveloped in this work can be used to find and visualize shortest routes between two points, or two point sets, along a varying height surface. In a digital image, there can be several paths sharing the same minimal length, and the Route DTOCS visualizes them all. A single optimal path can be extracted from the route set using a simple backtracking algorithm. A new extension of the priority pixel queue algorithm produces the nearest neighbor transform, or Voronoi or Dirichlet tessellation, simultaneously with the distance map. The transformation divides the image into regions so that each pixel belongs to the region surrounding the reference point, which is nearest according to the distance definition used. Applications and application ideas for the DTOCS and its extensions are presented, including obstacle avoidance, image compression and surface roughness evaluation.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Evoluutioalgoritmit ovat viime vuosina osoittautuneet tehokkaiksi menetelmiksi globaalien optimointitehtävien ratkaisuun. Niiden vahvuutena on etenkin yleiskäyttöisyys ja kyky löytää globaali ratkaisu juuttumatta optimoitavan tavoitefunktion paikallisiin optimikohtiin. Tässä työssä on tavoitteena kehittää uusi, normaalijakaumaan perustuva mutaatio-operaatio differentiaalievoluutioalgoritmiin, joka on eräs uusimmista evoluutiopohjaisista optimointialgoritmeista. Menetelmän oletetaan vähentävän entisestään sekä populaation ennenaikaisen suppenemisen, että algoritmin tilojen juuttumisen riskiä ja se on teoreettisesti osoitettavissa suppenevaksi. Tämä ei päde alkuperäisen differentiaalievoluution tapauksessa, koska on voitu osoittaa, että sen tilanmuutokset voivat pienellä todennäköisyydellä juuttua. Työssä uuden menetelmän toimintaa tarkastellaan kokeellisesti käyttäen testiongelmina monirajoiteongelmia. Rajoitefunktioiden käsittelyyn käytetään Jouni Lampisen kehittämää, Pareto-optimaalisuuden periaatteeseen perustuvaa menetelmää. Samalla saadaan kerättyä lisää kokeellista näyttöä myös tämän menetelmän toiminnasta. Kaikki käytetyt testiongelmat kyettiin ratkaisemaan sekä alkuperäisellä differentiaalievoluutiolla, että uutta mutaatio-operaatiota käyttävällä versiolla. Uusi menetelmä osoittautui kuitenkin luotettavammaksi sellaisissa tapauksissa, joissa alkuperäisellä algoritmilla oli vaikeuksia. Lisäksi useimmat ongelmat kyettiin ratkaisemaan luotettavasti pienemmällä populaation koolla kuin alkuperäistä differentiaalievoluutiota käytettäessä. Uuden menetelmän käyttö myös mahdollistaa paremmin sellaisten kontrolliparametrien käytön, joilla hausta saadaan rotaatioinvariantti. Laskennallisesti uusi menetelmä on hieman alkuperäistä differentiaalievoluutiota raskaampi ja se tarvitsee yhden kontrolliparametrin enemmän. Uusille kontrolliparametreille määritettiin kuitenkin mahdollisimman yleiskäyttöiset arvot, joita käyttämällä on mahdollista ratkaista suuri joukko erilaisia ongelmia.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tämä tutkimus kuuluu ympäristöklusterin tutkimusprojektiin "Materiaalivirrat ja energiankäyttö metsäteollisuusintegraateissa ja niihin liittyvät toimintastrategiat ympäristövaikutuslähtöisesti". Työn päätavoitteena oli kehittää laskentapohja, jossa alkuarvoja muuttamalla voidaan helposti määritellä metsäteollisuuden jäte- eli sivuainevirtojen käsittelystä ja hyötykäytöstä aiheutuvia hiilidioksidivaikutuksia. Tutkimuksen sisältö pohjautuu pääosin projektin muihin tutkimuksiin, joissa on tarkasteltu sivuainevirtojen hyötykäytön teknisiä ja taloudellisia reunaehtoja. Metsäteollisuuden tärkeimmiksi sivuainevirroiksi voidaan määritellä tuhka, soodasakka, jätevedenkäsittelyn liete sekä pastaliete. Tässä tutkimuksessa on laskettu näiden sivuainevirtojen nykyisten käsittelymenetelmien hiilidioksidivaikutukset projektissa mukana olevilla tehtailla ja vertailtu niitä potentiaalisempien uusien käsittely- ja hyötykäyttömenetelmien vaikutuksiin. Työstä saatujen tulosten perusteella voidaan arvioida, että tuhkan osalta hiilidioksidivaikutukset ovat suhteellisen merkityksettömiä. Pastalietteen osalta prosessiin palautus vaikuttaisi parhaalta menetelmältä, koska tuorepastan tuotannosta aiheutuu varsin runsaasti hiilidioksidipäästöjä. Suurin merkitys kokonaispäästöjen kannalta näyttäisi kuitenkin olevan jätevedenkäsittelyn lietteen ja soodasakan käsittelymenetelmillä. Soodasakan orgaaninen aines aiheuttaa kaatopaikoilla suurehkot metaanipäästöt, joita hyötykäytöllä voitaisiin vähentää merkittävästi. Jätevedenkäsittelyn lietteen osalta uudet kuivauksen tehostamismenetelmät parantavat lietteen poltettavuutta, jolloin myös hiilidioksidipäästöt pienenevät. Toisaalta suuremman kuiva-ainepitoisuuden vuoksi myös varastointi voisi olla mahdollista, jolloin lietettä ei tarvitsisi läjittää enää kaatopaikoille, ja myös kaatopaikkapäästöiltä vältyttäisiin.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työn tavoitteena oli etsiä vaihtoehtoja paperiteollisuuden kiertovesien ja pastapitoisten jätevesien suodatusprosesseissa tällä hetkellä käytössä oleville kalvoille. Työssä pyrittiin myös määrittämään tekijöitä, joiden avulla voitaisiin ennustaa polymeerikalvon käyttäytymistä erilaisissa paperiteollisuuden kalvosovelluksissa. Työn kirjallisessa osassa tarkasteltiin polymeerikalvojen ominaisuuksia, jotka vaikuttavat kalvojen käyttäytymiseen suodatusprosesseissa. Työssä esiteltiin myös tavallisimmat kalvomateriaalit ja polymeerikalvojen valmistustavat sekä paperiteollisuuden kalvosovelluksia. Paperiteollisuuden kalvosuodatussovellukset eroavat toisistaan huomattavasti toimintaolosuhteiltaan ja käyttötarkoituksiltaan. Tästä johtuen on hankalaa löytää yhteisiä tekijöitä, joiden perusteella voitaisiin ennustaa kalvon käyttäytymistä eri sovelluksissa. Kalvon hydrofiilisyyden todettiin kuitenkin vaikuttavan positiivisesti suodatustapahtumaan useissa sovelluksissa. Kokeellisessa osassa verrattiin erilaisten polymeerikalvojen ja referenssikalvojen toimintaa happaman kirkkaan suodoksen ja pastapitoisen veden suodatuksessa. Kirkkaan suodoksen suodatuskokeet tehtiin UPM-Kymmene Oy:n Kaukaan tehtailla. Pastapitoista jätevettä mallinnettiin syöttöpanoksilla, jotka tehtiin laimentamalla CTC:n valmistamaa LWC-pastaa. Suodatukset tehtiin CR 200/1- ja CR 550/10 -suodattimilla. Kirkkaan suodoksen suodatuksissa käytettiin referenssikalvona regeneroidusta selluloosasta ja pastapitoisen veden suodatuksessa aromaattisesta polyamidista valmistettua kalvoa. Kirkkaan suodoksen koesuodatusten perusteella todettiin, ettei minkään vertailtavan ultrasuodatuskalvon suodatuskapasiteetti ollut yhtä korkea kuin referenssikalvon. Referenssikalvon toiminta suodatuksessa oli myös vakaata syötön laadun muutoksista huolimatta. Todennäköisesti referenssikalvon erittäin hydrofiilinen luonne tekee siitä vertailtavia kalvoja sopivamman kirkkaan suodoksen suodatukseen. Pastapitoisen veden suodatustulosten perusteella referenssikalvolle löytyi useita potentiaalisia korvaajia. Näistä parhaan kalvon valitseminen edellyttää kuitenkin jatkotutkimuksia. SEM-analyysituloksista huomattiin, että tietyntyyppinen kalvorakenne parantaa kalvon toimintaa pastapitoisen veden suodatuksessa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In metallurgic plants a high quality metal production is always required. Nowadays soft computing applications are more often used for automation of manufacturing process and quality control instead of mechanical techniques. In this thesis an overview of soft computing methods presents. As an example of soft computing application, an effective model of fuzzy expert system for the automotive quality control of steel degassing process was developed. The purpose of this work is to describe the fuzzy relations as quality hypersurfaces by varying number of linguistic variables and fuzzy sets.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tutkimuksen tavoitteet Tutkimuksen tavoitteina oli selvittää millaisella toimintamallilla voidaan varmistaa asiakaslähtöinen ja kustannustehokas toimintatapa, joka tuottaa tasalaatuiset palvelut sekä varmistaa yhteisesti sovittujen toimenpiteiden toteutumisen case-yrityksen ylläpitämissä henkilöstöravintoloissa nopeasti ja tehokkaasti. Tutkimusongelmaa lähestyttiin strategisesta näkökulmasta. Kilpailustrategian avulla yritys asemoidaan ympäristöönsä sekä valitaan käytettävät kilpailukeinot. Kilpailuetua haetaan toimintamalleja ja niiden osia kehittämällä. Tällaisia ovat esimerkiksi oppiminen, organisaatiorakenne ja asiakkuuden hallinta. Kustannustehokkuus aikaansaadaan ketjuohjauksella ja asiakaslähtöisyys hyväksikäyttämällä massaräätälöintiä. Asiakasryhmien määrittämiseen käytettiin segmentoinnin teoriaa. Lähdeaineisto Teoriaosuudessa lähdeaineistona käytettiin kotimaista ja ulkomaista kirjallisuutta, jotka käsittelevät strategista ajattelua, kilpailustrategiaa, kilpailuetua, ketjutoimintaa, massaräätälöintiä, segmentointia ja asiakkuuden hallintaa. Empiriaosuuden lähdeaineistona toimivat case-yrityksen strategiaprosessia varten keräämät materiaalit sekä tutkijan omat kokemukset projektin vetäjänä. Tulokset Lopputuloksena case-yritykselle ehdotetaan tutkimuksessa rakentuneita valikoimien- ja toiminnanohjausmalleja. Valikoimien ohjausmallin muodostamiseen käytettiin massaräätälöinnin teoriaa. Toiminnanohjausmalli rakennettiin puolestaan ketjutoiminnan teoriaan perustuen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Recent advances in machine learning methods enable increasingly the automatic construction of various types of computer assisted methods that have been difficult or laborious to program by human experts. The tasks for which this kind of tools are needed arise in many areas, here especially in the fields of bioinformatics and natural language processing. The machine learning methods may not work satisfactorily if they are not appropriately tailored to the task in question. However, their learning performance can often be improved by taking advantage of deeper insight of the application domain or the learning problem at hand. This thesis considers developing kernel-based learning algorithms incorporating this kind of prior knowledge of the task in question in an advantageous way. Moreover, computationally efficient algorithms for training the learning machines for specific tasks are presented. In the context of kernel-based learning methods, the incorporation of prior knowledge is often done by designing appropriate kernel functions. Another well-known way is to develop cost functions that fit to the task under consideration. For disambiguation tasks in natural language, we develop kernel functions that take account of the positional information and the mutual similarities of words. It is shown that the use of this information significantly improves the disambiguation performance of the learning machine. Further, we design a new cost function that is better suitable for the task of information retrieval and for more general ranking problems than the cost functions designed for regression and classification. We also consider other applications of the kernel-based learning algorithms such as text categorization, and pattern recognition in differential display. We develop computationally efficient algorithms for training the considered learning machines with the proposed kernel functions. We also design a fast cross-validation algorithm for regularized least-squares type of learning algorithm. Further, an efficient version of the regularized least-squares algorithm that can be used together with the new cost function for preference learning and ranking tasks is proposed. In summary, we demonstrate that the incorporation of prior knowledge is possible and beneficial, and novel advanced kernels and cost functions can be used in algorithms efficiently.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Simultaneous localization and mapping(SLAM) is a very important problem in mobile robotics. Many solutions have been proposed by different scientists during the last two decades, nevertheless few studies have considered the use of multiple sensors simultane¬ously. The solution is on combining several data sources with the aid of an Extended Kalman Filter (EKF). Two approaches are proposed. The first one is to use the ordinary EKF SLAM algorithm for each data source separately in parallel and then at the end of each step, fuse the results into one solution. Another proposed approach is the use of multiple data sources simultaneously in a single filter. The comparison of the computational com¬plexity of the two methods is also presented. The first method is almost four times faster than the second one.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

LWC-syväpainopaperilta vaaditaan hyvän ajettavuuden, kiillon ja sileyden ohella hyvää opasiteettia. Tämä on asettanut haasteita LWC-paperin valmistajille paperin neliömassojen laskiessa. Tässä diplomityössä etsittiin keinoja parantaa kevyiden LWC-syväpainolajien opasiteettia heikentämättä oleellisesti muita tärkeitä paperin ominaisuuksia. Tavoitteena oli nostaa CR48-lajin opasiteetti tavoitearvoon 90 %. Työn kirjallisuusosassa perehdyttiin paperin optisten ominaisuuksien teoriaan sekä raaka-aineisiin ja prosessin osiin, joilla on vaikutusta paperin opasiteettiin. Työn kokeellisessa osassa tutkittiin olemassa olevan aineiston perusteella tekijöitä, joilla uskottiin olevan vaikutusta CR48-lajin opasiteettiin. Tutkimuksen ja kirjallisuuden perusteella ajettiin tehdaskoeajoa, joiden avulla pyrittiin parantamaan paperin opasiteettia. CR48-lajin opasiteettitavoite saavutettiin kolmella eri tavalla. Opasiteettitavoite saavutettiin, kun paperin vaaleus säädettiin tavoitearvoon pigmenttivärin avulla tumman hierteen sijasta. Tällöin väripigmentin määrää päällystyspastassa nostettiin 0,01 osaa ja valkaistun hierteen osuus kokonaishierteen määrästä oli 100 %. Vaaleuden säätö pastavärillä oli käytännössä hidasta ja hankalaa. Opasiteettitavoite saavutettiin myös, kun hierre jauhettiin täysin koeterillä. Koeterillä tapahtuva jauhatus oli rajumpaa ja katkovampaa kuin perinteisillä terillä, joten hienoaineen lisääntyminen ja kuidun lyheneminen paransivat paperin opasiteettia, mutta lujuudet huononivat. Lisäksi tavoiteopasiteetti saavutettiin, kun sellun osuutta vähennettiin 8 %-yksikköä. Lujuuden säilymisen kannalta sellun vähennys oli parempi keino opasiteetin parantamiseksi kuin hierteen jauhaminen koeterillä. Koeajojen perusteella pohjapaperin tuhkapitoisuuden nostolla ja hierteen CSF-luvun alentamisella ei ollut vaikutusta paperin opasiteettiin. Lisäksi 100 %:nen koeterillä jauhettu sahahakehierre antoi paperille huonomman opasiteetin kuin hierre, josta puolet oli jauhettu koeterillä ja raaka-aineesta 25 % oli sahahaketta.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This thesis deals with distance transforms which are a fundamental issue in image processing and computer vision. In this thesis, two new distance transforms for gray level images are presented. As a new application for distance transforms, they are applied to gray level image compression. The new distance transforms are both new extensions of the well known distance transform algorithm developed by Rosenfeld, Pfaltz and Lay. With some modification their algorithm which calculates a distance transform on binary images with a chosen kernel has been made to calculate a chessboard like distance transform with integer numbers (DTOCS) and a real value distance transform (EDTOCS) on gray level images. Both distance transforms, the DTOCS and EDTOCS, require only two passes over the graylevel image and are extremely simple to implement. Only two image buffers are needed: The original gray level image and the binary image which defines the region(s) of calculation. No other image buffers are needed even if more than one iteration round is performed. For large neighborhoods and complicated images the two pass distance algorithm has to be applied to the image more than once, typically 3 10 times. Different types of kernels can be adopted. It is important to notice that no other existing transform calculates the same kind of distance map as the DTOCS. All the other gray weighted distance function, GRAYMAT etc. algorithms find the minimum path joining two points by the smallest sum of gray levels or weighting the distance values directly by the gray levels in some manner. The DTOCS does not weight them that way. The DTOCS gives a weighted version of the chessboard distance map. The weights are not constant, but gray value differences of the original image. The difference between the DTOCS map and other distance transforms for gray level images is shown. The difference between the DTOCS and EDTOCS is that the EDTOCS calculates these gray level differences in a different way. It propagates local Euclidean distances inside a kernel. Analytical derivations of some results concerning the DTOCS and the EDTOCS are presented. Commonly distance transforms are used for feature extraction in pattern recognition and learning. Their use in image compression is very rare. This thesis introduces a new application area for distance transforms. Three new image compression algorithms based on the DTOCS and one based on the EDTOCS are presented. Control points, i.e. points that are considered fundamental for the reconstruction of the image, are selected from the gray level image using the DTOCS and the EDTOCS. The first group of methods select the maximas of the distance image to new control points and the second group of methods compare the DTOCS distance to binary image chessboard distance. The effect of applying threshold masks of different sizes along the threshold boundaries is studied. The time complexity of the compression algorithms is analyzed both analytically and experimentally. It is shown that the time complexity of the algorithms is independent of the number of control points, i.e. the compression ratio. Also a new morphological image decompression scheme is presented, the 8 kernels' method. Several decompressed images are presented. The best results are obtained using the Delaunay triangulation. The obtained image quality equals that of the DCT images with a 4 x 4

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Simulation has traditionally been used for analyzing the behavior of complex real world problems. Even though only some features of the problems are considered, simulation time tends to become quite high even for common simulation problems. Parallel and distributed simulation is a viable technique for accelerating the simulations. The success of parallel simulation depends heavily on the combination of the simulation application, algorithm and message population in the simulation is sufficient, no additional delay is caused by this environment. In this thesis a conservative, parallel simulation algorithm is applied to the simulation of a cellular network application in a distributed workstation environment. This thesis presents a distributed simulation environment, Diworse, which is based on the use of networked workstations. The distributed environment is considered especially hard for conservative simulation algorithms due to the high cost of communication. In this thesis, however, the distributed environment is shown to be a viable alternative if the amount of communication is kept reasonable. Novel ideas of multiple message simulation and channel reduction enable efficient use of this environment for the simulation of a cellular network application. The distribution of the simulation is based on a modification of the well known Chandy-Misra deadlock avoidance algorithm with null messages. The basic Chandy Misra algorithm is modified by using the null message cancellation and multiple message simulation techniques. The modifications reduce the amount of null messages and the time required for their execution, thus reducing the simulation time required. The null message cancellation technique reduces the processing time of null messages as the arriving null message cancels other non processed null messages. The multiple message simulation forms groups of messages as it simulates several messages before it releases the new created messages. If the message population in the simulation is suffiecient, no additional delay is caused by this operation A new technique for considering the simulation application is also presented. The performance is improved by establishing a neighborhood for the simulation elements. The neighborhood concept is based on a channel reduction technique, where the properties of the application exclusively determine which connections are necessary when a certain accuracy for simulation results is required. Distributed simulation is also analyzed in order to find out the effect of the different elements in the implemented simulation environment. This analysis is performed by using critical path analysis. Critical path analysis allows determination of a lower bound for the simulation time. In this thesis critical times are computed for sequential and parallel traces. The analysis based on sequential traces reveals the parallel properties of the application whereas the analysis based on parallel traces reveals the properties of the environment and the distribution.