40 resultados para features extraction

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Perceiving the world visually is a basic act for humans, but for computers it is still an unsolved problem. The variability present innatural environments is an obstacle for effective computer vision. The goal of invariant object recognition is to recognise objects in a digital image despite variations in, for example, pose, lighting or occlusion. In this study, invariant object recognition is considered from the viewpoint of feature extraction. Thedifferences between local and global features are studied with emphasis on Hough transform and Gabor filtering based feature extraction. The methods are examined with respect to four capabilities: generality, invariance, stability, and efficiency. Invariant features are presented using both Hough transform and Gabor filtering. A modified Hough transform technique is also presented where the distortion tolerance is increased by incorporating local information. In addition, methods for decreasing the computational costs of the Hough transform employing parallel processing and local information are introduced.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Selostus: Alumiini- ja rautaoksidien fosforikyllästysasteen arvioiminen suomalaisista peltomaista

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Due to the large number of characteristics, there is a need to extract the most relevant characteristicsfrom the input data, so that the amount of information lost in this way is minimal, and the classification realized with the projected data set is relevant with respect to the original data. In order to achieve this feature extraction, different statistical techniques, as well as the principal components analysis (PCA) may be used. This thesis describes an extension of principal components analysis (PCA) allowing the extraction ofa finite number of relevant features from high-dimensional fuzzy data and noisy data. PCA finds linear combinations of the original measurement variables that describe the significant variation in the data. The comparisonof the two proposed methods was produced by using postoperative patient data. Experiment results demonstrate the ability of using the proposed two methods in complex data. Fuzzy PCA was used in the classificationproblem. The classification was applied by using the similarity classifier algorithm where total similarity measures weights are optimized with differential evolution algorithm. This thesis presents the comparison of the classification results based on the obtained data from the fuzzy PCA.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tässä diplomityössä tutkitaan tekniikoita, joillavesileima lisätään spektrikuvaan, ja menetelmiä, joilla vesileimat tunnistetaanja havaitaan spektrikuvista. PCA (Principal Component Analysis) -algoritmia käyttäen alkuperäisten kuvien spektriulottuvuutta vähennettiin. Vesileiman lisääminen spektrikuvaan suoritettiin muunnosavaruudessa. Ehdotetun mallin mukaisesti muunnosavaruuden komponentti korvattiin vesileiman ja toisen muunnosavaruuden komponentin lineaarikombinaatiolla. Lisäyksessä käytettävää parametrijoukkoa tutkittiin. Vesileimattujen kuvien laatu mitattiin ja analysoitiin. Suositukset vesileiman lisäykseen esitettiin. Useita menetelmiä käytettiin vesileimojen tunnistamiseen ja tunnistamisen tulokset analysoitiin. Vesileimojen kyky sietää erilaisia hyökkäyksiä tarkistettiin. Diplomityössä suoritettiin joukko havaitsemis-kokeita ottamalla huomioon vesileiman lisäyksessä käytetyt parametrit. ICA (Independent Component Analysis) -menetelmää pidetään yhtenä mahdollisena vaihtoehtona vesileiman havaitsemisessa.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main objective of this study was todo a statistical analysis of ecological type from optical satellite data, using Tipping's sparse Bayesian algorithm. This thesis uses "the Relevence Vector Machine" algorithm in ecological classification betweenforestland and wetland. Further this bi-classification technique was used to do classification of many other different species of trees and produces hierarchical classification of entire subclasses given as a target class. Also, we carried out an attempt to use airborne image of same forest area. Combining it with image analysis, using different image processing operation, we tried to extract good features and later used them to perform classification of forestland and wetland.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Testaus on tänä päivänä olennainen osa tuotekehitysprosessia koko tuotteen elinkaaren ajan, myös tietoliikennetekniikassa. Tietoverkoille asetetut tiukat vaatimukset ympärivuorokautisen toimivuuden suhteen nostavatmyös niiden testauksen tason ja laadun merkitystä. Erityisesti verkkojen uudet toiminnallisuudet, joilla ei ole vielä vuosia kestäneen käytön ja kehityksen tuomaa varmuus- ja laatutasoa, tuovat haasteita testauksen toteutukselle. Televisiokuvan välityksen Internetin yli mahdollistavat ominaisuudet ovat esimerkki tällaisista toiminnallisuuksista. Tässä diplomityössä käsitellään Tellabs Oy:n tuotekehitysosastolla vuosina 2005 ja 2006 toteutetun, erään operaattorin laajakaistaliityntäverkon päivitysprojektin testausosuutta. Kattavamman tarkastelun kohteena ovat erityisesti verkkoon lisättyjen laajakaistatelevisio- eli IPTV-toiminnallisuuksien integraatio- ja systeemitestausmenetelmät.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Työn päätavoitteena on arvioida hissien automaattiovien usein toistuvien asiakaskohtaisesti räätälöityjen tuoteominaisuuksien vakioimisen kannattavuutta KONEen Hyvinkään tehtaalla. Työssä arvioidaan myös massaräätälöinnin periaatteiden soveltuvuutta erikoisovien toimitusprosessiin sekä toimintoperusteisen kustannustiedon tarpeellisuutta tuoteominaisuuksia koskevien päätösten teossa. Asiakaskohtaisesti räätälöity ovituotanto jaettiin kategorioihin, joiden volyymeja ja tuotemuutosten tekoon käytettyjä suunnittelutuntimääriä analysoimalla selvitettiin, muodostaako jokin räätälöitävä tuoteominaisuus riittävän suuren kappalemääräisen kysynnän tai suunnittelutuntien kulutuskohteen, jotta ominaisuuden vakiointi olisi kannattavaa. Ovien kustannusrakenne-esimerkkien avulla selvitettiin myös suunnittelun osuus kokonaiskustannuksista. Analyysien perusteella todettiin asiakaskohtaisten muutosten olevan hajanaisia ja vain muutaman ominaisuuden osalta muodostuvan tarpeeksi suuri ja yhtenäinen kokonaisuus, joka olisi taloudellisesti kannattavaavakioida. Monimutkaisen tuoterakenteen vuoksi massaräätälöinnin opit eivät ole suoraan kopioitavissa hissien erikoisovien toimitusprosessiin, mutta sisältävät hyödyllisiä toimintamalleja prosessin kehittämiseen.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tässä diplomityössä pohditaan call centereiden asemaa tämän päivän palveluympäristössä ja myöskin call centereiden tulevaisuutta contact centereinä. Tämä työ tutkii kuinka asiakastarpeita ja uusia toiminnallisuuksia voidaan etsiä olemassaolevaan, mutta vielä keskeneräiseen call center tuotteeseen. Tutkimus on tehty lukemalla artikkeleita ja kirjoja tulevaisuuden contact centereistä, haastattelemalla asiakkaita ja järjestämällä ideointisessio yrityksen asiantuntijoille. Näin saadut tulokset priorisoitiin tätä tarkoitusta varten kehitellyllä matriisilla. Lopullisena tuloksena on lista toiminnallisuuksista tärkeysjärjestyksessä ja tuote roadmap kaikkein tärkeimmistä toiminnallisuuksista. Tämä roadmap antaa tuotekehitykselle ehdotuksen mitä tulisi implementoida nykyiseen tuotteeseen ja mitkä ovat prioriteetit. Tässä työssä pohdiskellaan myös tuotteen modulaarista rakennetta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Tutkimusongelmana oli kuinka tiedon johtamisella voidaan edesauttaa tuotekehitysprosessia. Mitkä ovat ne avaintekijät tietoympäristössä kuin myös itse tiedossa, joilla on merkitystä erityisesti tuotekehitysprosessin arvon muodostumiseen ja prosessien kehittämiseen? Tutkimus on laadullinen Case-tutkimus. Tutkimusongelmat on ensin selvitetty kirjallisuuden avulla, jonka jälkeen teoreettinen viitekehys on rakennettu tutkimaan rajattua ongelma-aluetta case-yrityksestä. Empiirisen tutkimuksen materiaali koostuu pääasiallisesti henkilökohtaisten teemahaastattelujen aineistosta. Tulokset merkittävimmistä tiedon hyväksikäytön haittatekijöistä, kuten myös parannusehdotukset on lajiteltu teoreettisessa viitekehyksessä esitettyjen oletustekijöiden mukaan. Haastatteluissa saadut vastaukset tukevat kirjallisuudesta ja alan ammattilaiselta saatua käsitystä tärkeimmistä vaikuttavista tekijöistä. Tärkeimmät toimenpiteet ja aloitteet joilla parannettaisiin tiedon muodostumista, koskivat ennnen kaikkea työnteon ulkoisia olosuhteita, eikä niinkään tiedon muodostumisen prosessia itseään. Merkittävimpiä haittatekijöitä olivat kultturiin, fyysiseen ja henkiseen tilaan ja henkilöstöresursseihin liittyvät ongelmat. Ratkaisuja ongelmiin odotettiin saatavan lähinnä tietotekniikan, henkilöstöresurssien ja itse tiedon muokkaamisen avulla. Tuotekehitysprosessin ydin tietovirtojen ja –pääomien luokittelu ja tulkitseminen tiedon muodostusta kuvaavan Learning Spiralin avulla antoi lähinnä teoreettisia viitteitä siitä millaisia keinoja on olemassa tiedon lisäämiseen ja jakamiseen eri tietotyypeittäin. Tulosten perusteella caseyrityksessä pitäisi kiinnittää erityistä huomiota tiedon dokumentointiin ja jakamiseen erityisesti sen tiedon osalta, joka on organisaatiossa vain harvalla ja/tai luonteeltaan hyvin tacitia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In this study we used market settlement prices of European call options on stock index futures to extract implied probability distribution function (PDF). The method used produces a PDF of returns of an underlying asset at expiration date from implied volatility smile. With this method, the assumption of lognormal distribution (Black-Scholes model) is tested. The market view of the asset price dynamics can then be used for various purposes (hedging, speculation). We used the so called smoothing approach for implied PDF extraction presented by Shimko (1993). In our analysis we obtained implied volatility smiles from index futures markets (S&P 500 and DAX indices) and standardized them. The method introduced by Breeden and Litzenberger (1978) was then used on PDF extraction. The results show significant deviations from the assumption of lognormal returns for S&P500 options while DAX options mostly fit the lognormal distribution. A deviant subjective view of PDF can be used to form a strategy as discussed in the last section.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Pro-gradu –tutkielmani aiheena ovat 1700-luvun ”karanneet orjat” – sanomalehtiilmoitusten genrelle ominaiset piirteet. Tutkimusaineisto koostuu 190 ilmoituksesta, jotka ovat alkuperäisesti ilmestyneet virginialaisissa, pennsylvanialaisissa ja newyorkilaisissa sanomalehdissä 1730-luvulta 1770-luvulle. Tutkimuksen kohteeksi on rajattu ilmoitukset, joissa yksityishenkilöt ilmoittavat orjan/orjien karanneet ja lupaavat kiinniottajalle palkkion. Tutkielman tarkoituksena on tarkastella, millaisia ovat tyypilliset kielelliset piirteet näissä teksteissä ja millainen on prototyyppinen genren edustaja. Genreteorian lisäksi teoriaosuudessa käsittelen jonkin verran 1700- luvun englannin kielen yleisiä piirteitä sekä orjuuden ja sanomalehtien syntyhistoriaa Amerikassa taustoittaakseni tutkimusta. Analyysissa hyödynnän mm. Swalesin ja Bhatian käyttämää käsitettä siirroista (moves). Tutkin ilmoituksien tyypillistä rakennetta jakamalla ne yhdeksään siirtoon, joilla kaikilla on oma tehtävänsä ilmoituksessa. Jotkut siirrot, kuten karkulaisen kuvailu ja palkkion lupaaminen, esiintyvät kaikissa ilmoituksissa, kun taas toiset siirrot ovat läsnä harvemmin. Muita tälle genrelle tyypillisiä ominaisuuksia ovat esim. ilmoituksissa toistuvat kiinteät fraasit ja tietyt sanastolliset erikoisuudet. Lisäksi tutkin ilmoituksissa käytettäviä tapoja viitata asiaan liittyviin henkilöihin, sekä erilaisia toimia, joita ilmoitusten jättäjät ilmoituksien avulla suorittavat. Genressä on havaittavissa pieniä reilun neljänkymmenen vuoden kuluessa tapahtuneita muutoksia, mutta myös eroavaisuuksia eri siirtokuntien ilmoitusten välillä. Yleisesti voidaan todeta, että vaikka ”karanneet orjat” –ilmoitukset voivat vaihdella rakenteeltaan ja sanavalinnoiltaan, suuri osa ilmoituksista seuraa kuitenkin melko prototyyppistä muottia.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The amphiphilic nature of metal extractants causes the formation of micelles and other microscopic aggregates when in contact with water and an organic diluent. These phenomena and their effects on metal extraction were studied using carboxylic acid (Versatic 10) and organophosphorus acid (Cyanex 272) based extractants. Special emphasis was laid on the study of phase behaviour in a pre neutralisation stage when the extractant is transformed to a sodium or ammonium salt form. The pre neutralised extractants were used to extract nickel and to separate cobalt and nickel. Phase diagrams corresponding to the pre neutralisation stage in a metal extraction process were determined. The maximal solubilisation of the components in the system water(NH3)/extractant/isooctane takes place when the molar ratio between the ammonia salt form and the free form of the extractant is 0.5 for the carboxylic acid and 1 for the organophosphorus acid extractant. These values correspond to the complex stoichiometry of NH4A•HA and NIi4A, respectively. When such a solution is contacted with water a microemulsion is formed. If the aqueous phase contains also metal ions (e.g. Ni²+), complexation will take place on the microscopic interface of the micellar aggregates. Experimental evidence showing that the initial stage of nickel extraction with pre neutralised Versatic 10 is a fast pseudohomogeneous reaction was obtained. About 90% of the metal were extracted in the first 15 s after the initial contact. For nickel extraction with pre neutralised Versatic 10 it was found that the highest metal loading and the lowest residual ammonia and water contents in the organic phase are achieved when the feeds are balanced so that the stoichiometry is 2NH4+(org) = Nit2+(aq). In the case of Co/Ni separation using pre neutralised Cyanex 272 the highest separation is achieved when the Co/extractant molar ratio in the feeds is 1 : 4 and at the same time the optimal degree of neutralisation of the Cyanex 272 is about 50%. The adsorption of the extractants on solid surfaces may cause accumulation of solid fine particles at the interface between the aqueous and organic phases in metal extraction processes. Copper extraction processes are known to suffer of this problem. Experiments were carried out using model silica and mica particles. It was found that high copper loading, aromacity of the diluent, modification agents and the presence of aqueous phase decrease the adsorption of the hydroxyoxime on silica surfaces.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

This Master's thesis studies the development of interaction and socialization in online communities. A large number of online communities fade away even before they really get started. In many occasions the reason is that the community does not give anything new, or even if they do, the delivery does not satisfy the users. In this thesis guidelines were developed to help to see important things, which might be forgotten when developing an online community. The thesis goes through the characteristic of an online community and human behaviour related to them and also compares behaviour in the Internet and real life. In addition, usability is an important part of the online communities and thus it is also covered in this thesis. As a result of this thesis an 8-step guideline was developed to ease the design of an online community. Guidelines were also applied to two real life cases which are described as one part of this work.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Liquid-liquid extraction is a mass transfer process for recovering the desired components from the liquid streams by contacting it to non-soluble liquid solvent. Literature part of this thesis deals with theory of the liquid-liquid extraction and the main steps of the extraction process design. The experimental part of this thesis investigates the extraction of organic acids from aqueous solution. The aim was to find the optimal solvent for recovering the organic acids from aqueous solutions. The other objective was to test the selected solvent in pilot scale with packed column and compare the effectiveness of the structured and the random packing, the effect of dispersed phase selection and the effect of packing material wettability properties. Experiments showed that selected solvent works well with dilute organic acid solutions. The random packing proved to be more efficient than the structured packing due to higher hold-up of the dispersed phase. Dispersing the phase that is present in larger volume proved to more efficient. With the random packing the material that was wetted by the dispersed phase was more efficient due to higher hold-up of the dispersed phase. According the literature, the behavior is usually opposite.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The large and growing number of digital images is making manual image search laborious. Only a fraction of the images contain metadata that can be used to search for a particular type of image. Thus, the main research question of this thesis is whether it is possible to learn visual object categories directly from images. Computers process images as long lists of pixels that do not have a clear connection to high-level semantics which could be used in the image search. There are various methods introduced in the literature to extract low-level image features and also approaches to connect these low-level features with high-level semantics. One of these approaches is called Bag-of-Features which is studied in the thesis. In the Bag-of-Features approach, the images are described using a visual codebook. The codebook is built from the descriptions of the image patches using clustering. The images are described by matching descriptions of image patches with the visual codebook and computing the number of matches for each code. In this thesis, unsupervised visual object categorisation using the Bag-of-Features approach is studied. The goal is to find groups of similar images, e.g., images that contain an object from the same category. The standard Bag-of-Features approach is improved by using spatial information and visual saliency. It was found that the performance of the visual object categorisation can be improved by using spatial information of local features to verify the matches. However, this process is computationally heavy, and thus, the number of images must be limited in the spatial matching, for example, by using the Bag-of-Features method as in this study. Different approaches for saliency detection are studied and a new method based on the Hessian-Affine local feature detector is proposed. The new method achieves comparable results with current state-of-the-art. The visual object categorisation performance was improved by using foreground segmentation based on saliency information, especially when the background could be considered as clutter.