40 resultados para explicit categorization
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
This thesis is about detection of local image features. The research topic belongs to the wider area of object detection, which is a machine vision and pattern recognition problem where an object must be detected (located) in an image. State-of-the-art object detection methods often divide the problem into separate interest point detection and local image description steps, but in this thesis a different technique is used, leading to higher quality image features which enable more precise localization. Instead of using interest point detection the landmark positions are marked manually. Therefore, the quality of the image features is not limited by the interest point detection phase and the learning of image features is simplified. The approach combines both interest point detection and local description into one phase for detection. Computational efficiency of the descriptor is therefore important, leaving out many of the commonly used descriptors as unsuitably heavy. Multiresolution Gabor features has been the main descriptor in this thesis and improving their efficiency is a significant part. Actual image features are formed from descriptors by using a classifierwhich can then recognize similar looking patches in new images. The main classifier is based on Gaussian mixture models. Classifiers are used in one-class classifier configuration where there are only positive training samples without explicit background class. The local image feature detection method has been tested with two freely available face detection databases and a proprietary license plate database. The localization performance was very good in these experiments. Other applications applying the same under-lying techniques are also presented, including object categorization and fault detection.
Resumo:
The number of digital images has been increasing exponentially in the last few years. People have problems managing their image collections and finding a specific image. An automatic image categorization system could help them to manage images and find specific images. In this thesis, an unsupervised visual object categorization system was implemented to categorize a set of unknown images. The system is unsupervised, and hence, it does not need known images to train the system which needs to be manually obtained. Therefore, the number of possible categories and images can be huge. The system implemented in the thesis extracts local features from the images. These local features are used to build a codebook. The local features and the codebook are then used to generate a feature vector for an image. Images are categorized based on the feature vectors. The system is able to categorize any given set of images based on the visual appearance of the images. Images that have similar image regions are grouped together in the same category. Thus, for example, images which contain cars are assigned to the same cluster. The unsupervised visual object categorization system can be used in many situations, e.g., in an Internet search engine. The system can categorize images for a user, and the user can then easily find a specific type of image.
Resumo:
Local features are used in many computer vision tasks including visual object categorization, content-based image retrieval and object recognition to mention a few. Local features are points, blobs or regions in images that are extracted using a local feature detector. To make use of extracted local features the localized interest points are described using a local feature descriptor. A descriptor histogram vector is a compact representation of an image and can be used for searching and matching images in databases. In this thesis the performance of local feature detectors and descriptors is evaluated for object class detection task. Features are extracted from image samples belonging to several object classes. Matching features are then searched using random image pairs of a same class. The goal of this thesis is to find out what are the best detector and descriptor methods for such task in terms of detector repeatability and descriptor matching rate.
Resumo:
The shift towards a knowledge-based economy has inevitably prompted the evolution of patent exploitation. Nowadays, patent is more than just a prevention tool for a company to block its competitors from developing rival technologies, but lies at the very heart of its strategy for value creation and is therefore strategically exploited for economic pro t and competitive advantage. Along with the evolution of patent exploitation, the demand for reliable and systematic patent valuation has also reached an unprecedented level. However, most of the quantitative approaches in use to assess patent could arguably fall into four categories and they are based solely on the conventional discounted cash flow analysis, whose usability and reliability in the context of patent valuation are greatly limited by five practical issues: the market illiquidity, the poor data availability, discriminatory cash-flow estimations, and its incapability to account for changing risk and managerial flexibility. This dissertation attempts to overcome these impeding barriers by rationalizing the use of two techniques, namely fuzzy set theory (aiming at the first three issues) and real option analysis (aiming at the last two). It commences with an investigation into the nature of the uncertainties inherent in patent cash flow estimation and claims that two levels of uncertainties must be properly accounted for. Further investigation reveals that both levels of uncertainties fall under the categorization of subjective uncertainty, which differs from objective uncertainty originating from inherent randomness in that uncertainties labelled as subjective are highly related to the behavioural aspects of decision making and are usually witnessed whenever human judgement, evaluation or reasoning is crucial to the system under consideration and there exists a lack of complete knowledge on its variables. Having clarified their nature, the application of fuzzy set theory in modelling patent-related uncertain quantities is effortlessly justified. The application of real option analysis to patent valuation is prompted by the fact that both patent application process and the subsequent patent exploitation (or commercialization) are subject to a wide range of decisions at multiple successive stages. In other words, both patent applicants and patentees are faced with a large variety of courses of action as to how their patent applications and granted patents can be managed. Since they have the right to run their projects actively, this flexibility has value and thus must be properly accounted for. Accordingly, an explicit identification of the types of managerial flexibility inherent in patent-related decision making problems and in patent valuation, and a discussion on how they could be interpreted in terms of real options are provided in this dissertation. Additionally, the use of the proposed techniques in practical applications is demonstrated by three fuzzy real option analysis based models. In particular, the pay-of method and the extended fuzzy Black-Scholes model are employed to investigate the profitability of a patent application project for a new process for the preparation of a gypsum-fibre composite and to justify the subsequent patent commercialization decision, respectively; a fuzzy binomial model is designed to reveal the economic potential of a patent licensing opportunity.
Resumo:
Summary: Membership categorization device as a cultural method
Resumo:
Tutkimuksen tavoitteena on löytää keinoja eri organisaatioissa olevan asiantuntijatiedon kokoamiseksi tuotteistetun prosessin kautta yrityksissä tapahtuvan päätöksenteon tueksi. Kirjallisuustutkimuksessa tarkastellaan suomalaista innovaatiojärjestelmää, hiljaisen tiedon merkitystä pkt-yritysten tuotekehityksessä sekä ryhmässä tapahtuvan päätöksentekoprosessin merkityksellisyyttä. Tutkimuksen empiirisessä osassa tarkastellaan Etelä-Karjalassa toteutettua tuotekehityshanketta, siinä synnytettyä innovaatioryhmää ja sen yhteistyömuotoa (EKTK-konsepti). Tutkimuksen aikana luotiin toimintatapa, jolla nopeutetaan hajallaan olevan tiedon kokoamista yritysten käyttöön. Tutkimus osoittaa, että tällaisen innovaatioryhmän toiminta vaatii laajaa tuotekehitysprosessien ja liiketoimintojen kokonaisuuksien ymmärtämistä sekä selkeät yhteiset toimintamallit. Sen lisäksi tarvitaan ymmärrys hiljaisen tiedon olemassaolosta, merkityksestä ja keskustelujen kautta muuntamisesta siirrettävään muotoon.
Resumo:
Työssä tutkitaan asiakasarvopohjaisten elinkaaritietoon perustuvien palveluiden kehittämistä. Tavoitteena on löytää asiakasarvo tuulivoimaliiketoiminnassa, selvittää mitä palveluja voidaan tuottaa elinkaaritietoon pohjautuen ja millainen kehitysprosessi palveluille ABB:n ympäristössä voidaan kuvata. Tutkimusongelmaa on tarkasteltuLCB-tutkimusprojektin tulosten ja kirjallisuuden pohjalta. Teoriat voidaan jakaa kolmeen osaan, asiakasarvoon, dataan ja kehitysprosessiin. Ensimmäisessä osassa keskitytään tarjoaman muutokseen, rooleihin liiketoimintaverkostossa ja asiakasarvon laskennalliseen määritykseen. Toisessa osassa keskitytään datan palveluksi jalostamiseen ja kolmannessa palvelun kehitysprosessin tutkimiseen. Tutkimustuloksia on verifioitu case-tutkimuksen avulla ja erästä asiakasta on lähestytty case-tapauksena haastattelun avulla. Asiakas on profiloitu haastattelun perusteella tavoitteena löytää asiakasarvo ja kiinnostus uusia palveluja kohtaan. Uusia palveluita on kehitetty sekä eksplisiittisen että hiljaisen tiedon pohjalta. Näiden pohjalta on luotu toimivia palvelukonsepteja ja ideointivaiheen kehitysprosessi on dokumentoitu. Työstä on tehty kaksi eri versiota, joista tämä on suppeampi.
Resumo:
Moderni liiketoiminta kohtaa uusia haasteita. Haasteiden aiheuttajia ovat mm. alenevat tuotantokustannukset ja kiihtyvä kilpailu. Jotta yritys kykenisi vastaamaan näihin moderneihin haasteisiin, sen tulee toimissaan hyödyntää tehokkaasti omat resurssit. Yrityksen suurimmat resurssit sijaitsevat henkilöstössä, heihin sitoutuneessa tiedossa. Tästä tiedosta iso osa on ns. hiljaista tietoa, jota ei voida perinteisin keinoin tallentaa. Tämä työ, tutkimus keskittyy tuon hiljaisen tiedon tallentamiseen. Tutkimuksen tavoitteena oli luoda malli, joka sisältää hiljaisen tiedon keruun, analyysin ja siirtämisen. Kokonaisuus muodostaa työkalun jolla teettävän yrityksen eläkkeelle jäävä henkilöstön hiljainen tieto tallennetaan yritykseen. Mallin lisäksi tutkimuksessa tuodaan esille aihetta koskevat erilaiset kehitysmahdollisuudet ja visiot.
Resumo:
Tulevaisuuden hahmottamisen merkitys heikkojen signaalien avulla on korostunut viime vuosien aikana merkittävästi,koska yrityksen liiketoimintaympäristössä tapahtuvia muutoksia on ollut yhä vaikeampaa ennustaa historian perusteella. Liiketoimintaympäristössä monien muutoksien merkkejä on ollut nähtävissä, mutta niitä on ollut vaikea havaita. Heikkoja signaaleja tunnistamalla ja keräämällä sekä reagoimalla tilanteeseen riittävän ajoissa, on mahdollista saavuttaa ylivoimaista kilpailuetua. Kirjallisuustutkimus keskittyy heikkojen signaalien tunnistamisen haasteisiin liiketoimintaympäristöstä, signaalien ja informaation kehittymiseen sekä informaation hallintaan organisaatiossa. Kiinnostus näihin perustuu tarpeeseen määritellä heikkojen signaalien tunnistamiseen vaadittava prosessi, jonka avulla heikot signaalit voidaan huomioida M-real Oyj:n päätöksenteossa. Kirjallisuustutkimus osoittaa selvästi sen, että heikkoja signaaleita on olemassa ja niitä pystytään tunnistamaan liiketoimintaympäristöstä. Signaaleja voidaan rikastuttaa yrityksessä olevalla tietämyksellä ja hyödyntää edelleen päätöksenteossa. Vertailtaessa sekä kirjallisuustutkimusta että empiiristä tutkimusta tuli ilmi selkeästi tiedon moninaisuus; määrä,laatu ja tiedonsaannin oikea-aikaisuus päätöksenteossa. Tutkimuksen aikana kehittyi prosessimalli tiedon suodattamiselle, luokittelulle ja heikkojen signaalien tunnistamiselle. Työn edetessä prosessimalli kehittyi osaksi tässä työssä kehitettyä kokonaisuutta 'Weak Signal Capturing' -työkalua. Monistamalla työkalua voidaan kerätä heikkoja signaaleja eri M-realin liiketoiminnan osa-alueilta. Tietoja systemaattisesti kokoamalla voidaan kartoittaa tulevaisuutta koko M-realille.
Resumo:
Tässä diplomityössä tarkastellaan hiljaisen tiedon ja osaamisen siirtämistä yksilöltä tiimille tietotekniikka- ja telekommunikaatioalalla (IT-ala). Tarkoitus on kehittää systemaattinen tiedonsiirtämismenetelmä, johon kuuluu uusi työskentelytapa ja teknisenä työkaluna tietämyskannan käyttö. Teoriaosuudessa tarkastellaan tiedon määritelmää ja eri olomuotoja. Pohditaan hiljaisen ja määrällisen tiedon eroa. Tutkitaan miten tiedonsiirtäminen tapahtuu ja mitä haasteita siinä voi esiintyä. Käsitellään oppimissykli ja tietämyskanta. Empiriaosuudessa tutkitaan neljää tiimiä IT-alalta. Tiimit ovat luonteeltaan ja toiminnaltaan erilaisia. Tutkitaan mitä tiedonsiirtohaasteita niissä on. Samalla pohditaan onko tiiminrakenteella merkitystä tiedonsiirtämisen kannalta. Empiiriset tulokset osoittavat, että tiimin rakenne itsestään ei ratkaise tiedonsiirtämishaasteita. Tulosten perusteella suositellaan systemaattista tiedonsiirtämistä. Avuksi kannattaa ottaa käyttöön tietämyskanta, tarkemmin wiki ja blogi.
Resumo:
Työn lopputulos on kuvaus mallista, jonka avulla tuotteen ylösajoavoidaan tukea valmistuspaikasta riippumatta. Mallin tavoitteena on saavuttaa uuden tuotteen ylösajossa asiakaslaadun ja saannon nopea nouseminen hyväksyttävälle tasolle. Mallin rakentaminen suoritetaan tutkimallanykytilannetta kohdeyrityksessa ja työn tavoitteeseen sopivaa teoriaa.Nykytilanteen tutkimus käsittää kohdeyrityksen keskeisimmät toiminnot, jotka ovat (1) tuotanto, (2) asiakaspalvelu ja (3) tehdyt tuotesiirrot. Työn tavoitetta tukevaksi teoriakentäksi vahvistui tietojohtamisen teoriakenttä tiedon siirtämiseen osalta. Teorian avulla huomattiin, että siirrettävä tieto on havainnollista ja siksi ei aseta haasteita tiedon muokkaamiselle sähköisesti siirrettävään muotoon. Malli koostuu kolmesta päämoduulista ja yhdestä alimoduulista. Tiedon kerääminen jaettiin kolmeen itsenäiseen päämoduuliin ja jokaiselle moduulille annettiin omistaja kohdeyrityksessä, koska jako auttaa tiedon keräämisen hallintaa ja edelleen kehittämistä. Prosessi sisältää paljon ihmistyötä vaativaa tiedon keräämistä. Tämän johdosta luonteva jatko työlle on kehittää kohdeyrityksen nykyistä tiedon keräämistä ja hyödyntämistä.