86 resultados para LEVEL SET METHODS
Resumo:
This thesis studies the transformation to utilizing e-business in corporate business activities. This transformation is called e-transformation. The transformation requires changes in both the IT infrastructure, as in the way things are done within the company. In this thesis the most focal needs for change are evaluated and solutions are suggested for the utilization of e-business at the corporate level. E-business sets demands to the corporate level management of customers, users and products. Also new kinds of demands are set to the IT systems used. A major practical problem in e-transformation is the growing need for the integration of corporate databases and information systems. In this thesis methods are sought to perform this integration. As an example, the challenges relating to the development of a CRM-system were examined. In this thesis the aim was to develop a model for an electronic portal with the help of which centralized electronic services can be offered to customers. In addition to the developed model, possible development phases were studied in the transformation to a portal as well as presenting a model of a multilevel portal.
Resumo:
Main purpose of this thesis is to introduce a new lossless compression algorithm for multispectral images. Proposed algorithm is based on reducing the band ordering problem to the problem of finding a minimum spanning tree in a weighted directed graph, where set of the graph vertices corresponds to multispectral image bands and the arcs’ weights have been computed using a newly invented adaptive linear prediction model. The adaptive prediction model is an extended unification of 2–and 4–neighbour pixel context linear prediction schemes. The algorithm provides individual prediction of each image band using the optimal prediction scheme, defined by the adaptive prediction model and the optimal predicting band suggested by minimum spanning tree. Its efficiency has been compared with respect to the best lossless compression algorithms for multispectral images. Three recently invented algorithms have been considered. Numerical results produced by these algorithms allow concluding that adaptive prediction based algorithm is the best one for lossless compression of multispectral images. Real multispectral data captured from an airplane have been used for the testing.
Resumo:
Työn tutkimusongelma oli selventää, tutkia ja analysoida dynaamisen hinnoittelun tekijät ja mahdollisuudet tuotevarianttien hinnoittelussa. Tutkimusongelman selvittämiseksi työlle asetettiin 8 tavoitetta - Saada selville miksi tuotevarianttien hinnoittelu on ongelmallista - Esittää kuinka tuotevarianttien hinnat teoreettisesti tulisi asettaa - Tunnistaa tuotevarianttien hinnoittelun ulottuvuudet ja selvittää dynaamisen hinnoittelun edut staattiseen hinnoitteluun verrattuna - Esitellä analyysikehikko hinnoittelun tilan analysointiin - Tunnistaa dynaamisen hinnoittelun tuotevarianteille suomat mahdollisuudet - Etsiä soveltuvat hinnoittelumenetelmät tuotevarianttien dynaamiseen hinnoitteluun - Analysoida tuotevariantteja myyvän yrityksen hinnoittelu - Tunnistaa ja arvioida dynaamisen hinnoittelun edut yritykselle Diplomityössä käytettiin useita tutkimusmenetelmiä. Perustieto haettiin kirjallisuustutkimuksella ja sitä täydennettiin haastatteluilla. Tutkimusprosessi alkoi tutkimuksella tuotevarianttien hinnoittelusta ja kirjallisuuden perusteella luotiin näkökulma ja yleiset kehityssuunnat tarkempaa tutkimusta varten. Kaksi tärkeintä tuotevariaatioiden hinnoitteludimensiota tunnistettiin ja niiden analysointia varten luotiin nelikenttämalli. Kirjallisuustutkimuksen ja tarkemman kohdeyrityksen tarkastelun perusteella dynaaminen tuotelinjahinnoittelu on tuotevarianttien dynaamisen hinnoittelun tavoitetila. Nelikenttämallia käytettiin kohdeyrityksen hinnoittelun tilan arviointiin ja dynaamisen hinnoittelun suurimmat hyödyt löydettiin. Tutkimuksen päätulokset ovat - Hinnoittelun dynaamisuutta tulee tuotevarianteilla tutkia hinnoittelun älykkyyden ja kehittyneisyyden kanssa - Tuotevariaatioiden hinnoittelun tavoitetila on dynaaminen tuotelinjahinnoittelu - Hinnoittelun kehittäminen staattisesta dynaamiseen tuo huomattavia etuja - Tärkein etu on parempi hintojen hallinta ja mahdollisuus johtaa hintoja tehokkaasti. Tämän vuoksi hinnoitteluanalyysissa havaittiin selvästi lisääntyneitä voittoja - Hinnoittelun älykkyyden nostaminen hyödyttää yritystä ja saa aikaan lisäyksen voitoissa
Resumo:
Työn tavoitteena oli kartoittaa vaihtoehtoisia menetelmiä perinteiselle aikatasossa tapahtuvalle kulmastabiilisuuden mallinnukselle käyttövarmuustarkastelussa. Vaihtoehtoisiin menetelmiin tutustuttiin kirjallisuuden avulla ja valittiin menetelmä testattavaksi pohjoismaisessa yhteiskäyttöjärjestelmässä. Vaihtoehtoisen menetelmän ominaisuusvaatimuksiin kuului nopeampi laskenta, luotettava stabiilien ja epästabiilien tilanteiden seulontakyky ja menetelmän antama indeksi stabiilisuus-/epästabiilisuusasteesta. Pääasiassa menetelmät, joihin tutustuttiin, arvioivat vain transienttia stabiilisuutta. SIME-menetelmä soveltui myös dynaamisen stabiilisuuden arviointiin. Suomessa voi dynaamisella stabiilisuudella olla tulevaisuudessa merkittävä rooli käyttövarmuustarkasteluissa. SIME-menetelmän toimivuutta testattiin osin yksinkertaistetulla Nordel-verkkomallilla, ja saadut tulokset olivat lupaavia. Menetelmä täytti uudelle menetelmälle asetetut vaatimukset, vaikka ongelmiakin esiintyi. Testauksessa käytetyn menetelmän edelleen kehittäminen ja menetelmän testaaminen täydellisellä verkkomallilla on suositeltavaa.
Resumo:
Tutkimuksen tarkoituksena oli selvittää, ovatko asiakkaiden kanssa sovitut kaupintavarastojärjestelyt liiketoiminnallisesti oikeutettuja vai ovatko ne pääasiassa vain asiakkaan palvelua. Tavoitteiksi asetettiin tutkia logististen palveluiden tärkeyttä, etsiä eri näkökohtia asiakaskohtaisten varastojen ja varastopalveluiden tarjoamiselle, löytää mahdollisia korvaavia tai vastaavia palveluita, sekä esitellä menetelmä toimitusketjun palvelutason priorisoimiseksi ja hallitsemiseksi. Työhön tarvittu kaupallinen aineisto koskien tuotteita ja asiakaita saatiin yrityksen tietojärjestelmästä. Muut taustatiedot kerättiin yrityksen toimintaohjeista, keskustelemalla ja haastattelemalla henkilöstöä, sekä seuraamalla yrityksen toimintaa työnteon ohessa. Tutkimus on jaettu kirjallisuus- ja case-osuuteen. Työn case-tulokset osoittavat, että nykyiset kaupintavarastoasiakkaat pääosin ansaitsevat lisäarvoa tuottavan varastopalvelun. Tutkimuksesta saadut kokemukset ja tiedot auttavat tekemään lisäarviointeja, koskien myös yrityksen muita tuotantolaitoksia. Työstä saatuja kokonaishyötyjä on vielä tässä vaiheessa vaikea arvioida.
Resumo:
Diplomityön tarkoituksena on selvittää tämänhetkiset Fortum Oil and Gas Oy:n Porvoon öljynjalostamolla suoritettavat ympäristömittaukset ja –määritykset. Samalla arvioidaan täyttävätkö ympäristömittaukset ja –määritykset niille ympäristölainsäädännössä jo asetetut ja lähiaikoina voimaan tulevat vaatimukset. Työssä esitetyissä jalostamoa koskevissa uusissa lainsäädännön velvoitteisssa päästötiedontuotannon laadun varmennuksella on suuri rooli. Työn ensimmäisessä osassa selvitetään ympäristömittausten nykykäytäntö Porvoon jalostamolla. Nykykäytännön selvitys perustuu jalostamon olemassa oleviin toimintajärjestelmän ohjeisiin ja henkilöhaastatteluihin. Samalla tarkastellaan jalostamon toimintaa koskevia uusia lainsäädännön tuomia velvoitteita päästöjen tarkkailulle ja raportoinnille. Työn toisessa osiossa esitetään käytetyt laadunvarmennusmenetelmät mittausten ja määritysten eri tiedontuotantoketjujen vaiheissa. Samalla verrataan toteutettuja päästö- ja ympäristömittauksia uusiin lainsäädännön tuomiin vaatimuksiin, toimintajärjestelmän ohjeistukseen, standardeihin ja tarkkailun parhaan käyttökelpoisen tekniikan vertailuasiakirjaan (Monitoring-BREF). Selvityksen tuloksia voidaan käyttää jalostamon päästötietojen keräysmenetelmien ja tiedontuotantoketjujen laadun varmentamisen saattamiseksi vastaamaan niille asetettuja vaatimuksia. Selvityksen perusteella lupaehdoissa Porvoon jalostamolle asetetut nykyiset vaatimukset päästöjen ja ympäristövaikutusten seurannalle täyttyvät. Jalostamolla on tehtävä parannuksia päästöjentarkkailu ja –raportointimenetelmiin, jotta tulevat lainsäädännön vaatimukset tulevat täytetyksi. Jalostamon päästömittausten tiedontuotantoketjut eivät kaikissa määrityksissä täytä tarkkailun BREF-asiakirjassa esitettyjä vaatimuksia määritysten laadunvarmennukselle ja läpinäkyvyydelle. Työssä on esitetty korjaavat toimenpiteet.
Resumo:
Reusability has become more popular factor in modern software engineering. This is mainly because object-orientation has brought methods that allow reusing more easily. Today more and more application developer thinks how they can reuse already existing applications in their work. If the developer wants to use existing components outside the current project, he can use design patterns, class libraries or frameworks. These provide solution for specific or general problems that has been already encountered. Application frameworks are collection of classes that provides base for the developer. Application frameworks are mostly implementation phase tools, but can also be used in application design. The main purpose of the frameworks is separate domain specific functionalities from the application specific. Usually the frameworks are divided into two categories: black and white box. Difference between those categories is the way the reuse is done. The application frameworks provide properties that can be examined and compared between different frameworks. These properties are: extensibility, reusability, modularity and scalability. These examine how framework will handle different platforms, changes in framework, increasing demand for resources, etc. Generally application frameworks do have these properties in good level. When comparing general purpose framework and more specific purpose framework, the main difference can be located in reusability of frameworks. It is mainly because the framework designed to specific domain can have constraints from external systems and resources. With general purpose framework these are set by the application developed based on the framework.
Resumo:
As the development of integrated circuit technology continues to follow Moore’s law the complexity of circuits increases exponentially. Traditional hardware description languages such as VHDL and Verilog are no longer powerful enough to cope with this level of complexity and do not provide facilities for hardware/software codesign. Languages such as SystemC are intended to solve these problems by combining the powerful expression of high level programming languages and hardware oriented facilities of hardware description languages. To fully replace older languages in the desing flow of digital systems SystemC should also be synthesizable. The devices required by modern high speed networks often share the same tight constraints for e.g. size, power consumption and price with embedded systems but have also very demanding real time and quality of service requirements that are difficult to satisfy with general purpose processors. Dedicated hardware blocks of an application specific instruction set processor are one way to combine fast processing speed, energy efficiency, flexibility and relatively low time-to-market. Common features can be identified in the network processing domain making it possible to develop specialized but configurable processor architectures. One such architecture is the TACO which is based on transport triggered architecture. The architecture offers a high degree of parallelism and modularity and greatly simplified instruction decoding. For this M.Sc.(Tech) thesis, a simulation environment for the TACO architecture was developed with SystemC 2.2 using an old version written with SystemC 1.0 as a starting point. The environment enables rapid design space exploration by providing facilities for hw/sw codesign and simulation and an extendable library of automatically configured reusable hardware blocks. Other topics that are covered are the differences between SystemC 1.0 and 2.2 from the viewpoint of hardware modeling, and compilation of a SystemC model into synthesizable VHDL with Celoxica Agility SystemC Compiler. A simulation model for a processor for TCP/IP packet validation was designed and tested as a test case for the environment.
Resumo:
Currently there is a vogue for Agile Software Development methods and many software development organizations have already implemented or they are planning to implement agile methods. Objective of this thesis is to define how agile software development methods are implemented in a small organization. Agile methods covered in this thesis are Scrum and XP. From both methods the key practices are analysed and compared to waterfall method. This thesis also defines implementation strategy and actions how agile methods are implemented in a small organization. In practice organization must prepare well and all needed meters are defined before the implementation starts. In this work three different sample projects are introduced where agile methods were implemented. Experiences from these projects were encouraging although sample set of projects were too small to get trustworthy results.
Resumo:
Tämän tutkimuksen avulla on haettu parannusehdotuksia sisäisen viestinnän keinoin toteutettavaan yrityksen strategian viestintään. Tutkimuksen case-yrityksenä on UPM:n Kymin tehdas. Tutkimus perustuu etukäteen yrityksessä tehtyjen erilaisten viestintätutkimusten analysointiin sekä saatujen tulosten vertailuun teoriaan ja yrityksessä asetettuihin viestinnän tavoitteisiin. Tutkittavan aineiston perusteella tutkimus voidaan luokitella sekä laadulliseen että määrälliseen tutkimukseen. Aineiston laajuuden ja erilaisuuden takia se käsitellään laadullisen analyysin mukaan. Teoreettisena viitekehyksenä on suhdemarkkinointi ja edelleen sisäinen markkinointi. Teoreettisesti asiaa tarkastellaan myös johtamisen ja viestinnän näkökulmasta. Tietämyksen, ymmärryksen, osaamisen, osallistumisen ja palkitsemien kautta saadaan ihmiset hyväksymään asetetut strategiat ja muutos. Sisäinen viestintä saadaan parhaiten palvelemaan strategian viestintää johdon ja esimieskunnan viestintäosaamisen ja asenteen varmistamisella. Kaikkia viestintäkanavia tarvitaan, mutta niiden oikea hallinta ja tärkeyden painotus on tärkeä. Viestinnän strategian ja toimenpiteiden suunnittelu ovat asia, jota ei voi unohtaa. Näitä vielä tärkeämpää on strategisten viestien sisältö.
Resumo:
The aim of the study was to ford out the availability of biomasses, which are available for energy production, in Poland. Biomasses which were examined were forest residues and surplus straw. Availability was examined by 16 Polish voivodeships, which are provinces in Poland. After fording out the amounts of biomasses for energy production was examined the need of biomass in the biggest CHP plants in Poland. It was expected that all the plants uses 15 % of biomass as the fuel. In the first parts of the report are explained the legislation which effects to biomass use in energy production in EU level and in Polish level. Also the combustion methods best for biomasses are explained by examples. After this, is studied the general situation of renewable energy use in Poland and the facts about the country. In the last parts it's explained the calculations and is shown the example cases. When it was found out the needs and supply of biomass it was examined by examples how it could be transported to the plants from the producers. Also was examined costs effected, if there were logistical terminals between the producer and the end user. The estimation was done by setting prices for the biomass, and fording out average costs for producing and transporting biomass. There are a lot of surplus biomasses in Poland which could be used for energy production, and this is a one way to reach the goals that EU has set of renewable energies. But because biomasses doesn't have such a good calorific value, it isn't worth able to transport it very long distances. In the research was set the prices for producer 9€/MWh and for end user 15€/MWh, the maximum transportation distance for forest residues was 52 km and for straw 56 km. These are example estimations and it has to be remembered that there are a lot of factors that makes inaccurate. The model is really sensitive and by changing one parameter the results change a lot.
Resumo:
Learning of preference relations has recently received significant attention in machine learning community. It is closely related to the classification and regression analysis and can be reduced to these tasks. However, preference learning involves prediction of ordering of the data points rather than prediction of a single numerical value as in case of regression or a class label as in case of classification. Therefore, studying preference relations within a separate framework facilitates not only better theoretical understanding of the problem, but also motivates development of the efficient algorithms for the task. Preference learning has many applications in domains such as information retrieval, bioinformatics, natural language processing, etc. For example, algorithms that learn to rank are frequently used in search engines for ordering documents retrieved by the query. Preference learning methods have been also applied to collaborative filtering problems for predicting individual customer choices from the vast amount of user generated feedback. In this thesis we propose several algorithms for learning preference relations. These algorithms stem from well founded and robust class of regularized least-squares methods and have many attractive computational properties. In order to improve the performance of our methods, we introduce several non-linear kernel functions. Thus, contribution of this thesis is twofold: kernel functions for structured data that are used to take advantage of various non-vectorial data representations and the preference learning algorithms that are suitable for different tasks, namely efficient learning of preference relations, learning with large amount of training data, and semi-supervised preference learning. Proposed kernel-based algorithms and kernels are applied to the parse ranking task in natural language processing, document ranking in information retrieval, and remote homology detection in bioinformatics domain. Training of kernel-based ranking algorithms can be infeasible when the size of the training set is large. This problem is addressed by proposing a preference learning algorithm whose computation complexity scales linearly with the number of training data points. We also introduce sparse approximation of the algorithm that can be efficiently trained with large amount of data. For situations when small amount of labeled data but a large amount of unlabeled data is available, we propose a co-regularized preference learning algorithm. To conclude, the methods presented in this thesis address not only the problem of the efficient training of the algorithms but also fast regularization parameter selection, multiple output prediction, and cross-validation. Furthermore, proposed algorithms lead to notably better performance in many preference learning tasks considered.
Resumo:
This thesis deals with distance transforms which are a fundamental issue in image processing and computer vision. In this thesis, two new distance transforms for gray level images are presented. As a new application for distance transforms, they are applied to gray level image compression. The new distance transforms are both new extensions of the well known distance transform algorithm developed by Rosenfeld, Pfaltz and Lay. With some modification their algorithm which calculates a distance transform on binary images with a chosen kernel has been made to calculate a chessboard like distance transform with integer numbers (DTOCS) and a real value distance transform (EDTOCS) on gray level images. Both distance transforms, the DTOCS and EDTOCS, require only two passes over the graylevel image and are extremely simple to implement. Only two image buffers are needed: The original gray level image and the binary image which defines the region(s) of calculation. No other image buffers are needed even if more than one iteration round is performed. For large neighborhoods and complicated images the two pass distance algorithm has to be applied to the image more than once, typically 3 10 times. Different types of kernels can be adopted. It is important to notice that no other existing transform calculates the same kind of distance map as the DTOCS. All the other gray weighted distance function, GRAYMAT etc. algorithms find the minimum path joining two points by the smallest sum of gray levels or weighting the distance values directly by the gray levels in some manner. The DTOCS does not weight them that way. The DTOCS gives a weighted version of the chessboard distance map. The weights are not constant, but gray value differences of the original image. The difference between the DTOCS map and other distance transforms for gray level images is shown. The difference between the DTOCS and EDTOCS is that the EDTOCS calculates these gray level differences in a different way. It propagates local Euclidean distances inside a kernel. Analytical derivations of some results concerning the DTOCS and the EDTOCS are presented. Commonly distance transforms are used for feature extraction in pattern recognition and learning. Their use in image compression is very rare. This thesis introduces a new application area for distance transforms. Three new image compression algorithms based on the DTOCS and one based on the EDTOCS are presented. Control points, i.e. points that are considered fundamental for the reconstruction of the image, are selected from the gray level image using the DTOCS and the EDTOCS. The first group of methods select the maximas of the distance image to new control points and the second group of methods compare the DTOCS distance to binary image chessboard distance. The effect of applying threshold masks of different sizes along the threshold boundaries is studied. The time complexity of the compression algorithms is analyzed both analytically and experimentally. It is shown that the time complexity of the algorithms is independent of the number of control points, i.e. the compression ratio. Also a new morphological image decompression scheme is presented, the 8 kernels' method. Several decompressed images are presented. The best results are obtained using the Delaunay triangulation. The obtained image quality equals that of the DCT images with a 4 x 4
Resumo:
The central goal of food safety policy in the European Union (EU) is to protect consumer health by guaranteeing a high level of food safety throughout the food chain. This goal can in part be achieved by testing foodstuffs for the presence of various chemical and biological hazards. The aim of this study was to facilitate food safety testing by providing rapid and user-friendly methods for the detection of particular food-related hazards. Heterogeneous competitive time-resolved fluoroimmunoassays were developed for the detection of selected veterinary residues, that is coccidiostat residues, in eggs and chicken liver. After a simplified sample preparation procedure, the immunoassays were performed either in manual format with dissociation-enhanced measurement or in automated format with pre-dried assay reagents and surface measurement. Although the assays were primarily designed for screening purposes providing only qualitative results, they could also be used in a quantitative mode. All the developed assays had good performance characteristics enabling reliable screening of samples at concentration levels required by the authorities. A novel polymerase chain reaction (PCR)-based assay system was developed for the detection of Salmonella spp. in food. The sample preparation included a short non-selective pre-enrichment step, after which the target cells were collected with immunomagnetic beads and applied to PCR reaction vessels containing all the reagents required for the assay in dry form. The homogeneous PCR assay was performed with a novel instrument platform, GenomEra™, and the qualitative assay results were automatically interpreted based on end-point time-resolved fluorescence measurements and cut-off values. The assay was validated using various food matrices spiked with sub-lethally injured Salmonella cells at levels of 1-10 colony forming units (CFU)/25 g of food. The main advantage of the system was the exceptionally short time to result; the entire process starting from the pre-enrichment and ending with the PCR result could be completed in eight hours. In conclusion, molecular methods using state-of-the-art assay techniques were developed for food safety testing. The combination of time-resolved fluorescence detection and ready-to-use reagents enabled sensitive assays easily amenable to automation. Consequently, together with the simplified sample preparation, these methods could prove to be applicable in routine testing.
Resumo:
Tämän diplomityön päätavoite on selvittää keinoja Woikoski Oy:n jakelulogistiikan kustannustehokkuuden kehittämiseksi. Päätavoite voidaan jakaa osatavoitteisiin, joita ovat varastonohjauksen kehittäminen ja jakelun kuljetustoimintojen tehostaminen. Varastoinnin nykytilaa arvioitiin ABC-analyysin avulla. Saatujen tulosten pohjalta määritettiin luokkakohtaiset varastonohjaussäännöt ja kiertonopeustavoitteet, jotka yhdessä muodostavat yritykselle varastopolitiikan. Havaitut ongelmat kulminoituivat jatkuvan varastoseurannan puuttumiseen, suuriin varastotasoihin sekä kysynnänhallinnan puutteisiin. Toimenpidesuosituksina yrityksen tulee investoida tehokkaaseen varastonhallintajärjestelmään sekä aloittaa systemaattinen kysynnän ennustaminen. Kuljetuksiin liittyviksi toimenpiteiksi ehdotetaan runko- ja jakelukuljetusten reittien sekä jakelualueiden optimointia ja tuloksena saadun jakelumallin käyttöönottoa. Nykyistä jakelurahtien hinnoittelua suositellaan tarkennettavaksi siten, että jakelukustannuksia ja toimitusmääriä eritellään nykyistä tarkemmin ja asiakkaille kohdistetaan rahtikustannuksia todenmukaisin perustein. Lisäksi logistiikkatoimintaa tulee yhtenäistää eri toimipaikkojen kesken ja toimintojen mittaamista on tehostettava organisaatiossa.