87 resultados para Object oriented database
Resumo:
This thesis is about detection of local image features. The research topic belongs to the wider area of object detection, which is a machine vision and pattern recognition problem where an object must be detected (located) in an image. State-of-the-art object detection methods often divide the problem into separate interest point detection and local image description steps, but in this thesis a different technique is used, leading to higher quality image features which enable more precise localization. Instead of using interest point detection the landmark positions are marked manually. Therefore, the quality of the image features is not limited by the interest point detection phase and the learning of image features is simplified. The approach combines both interest point detection and local description into one phase for detection. Computational efficiency of the descriptor is therefore important, leaving out many of the commonly used descriptors as unsuitably heavy. Multiresolution Gabor features has been the main descriptor in this thesis and improving their efficiency is a significant part. Actual image features are formed from descriptors by using a classifierwhich can then recognize similar looking patches in new images. The main classifier is based on Gaussian mixture models. Classifiers are used in one-class classifier configuration where there are only positive training samples without explicit background class. The local image feature detection method has been tested with two freely available face detection databases and a proprietary license plate database. The localization performance was very good in these experiments. Other applications applying the same under-lying techniques are also presented, including object categorization and fault detection.
Resumo:
Perceiving the world visually is a basic act for humans, but for computers it is still an unsolved problem. The variability present innatural environments is an obstacle for effective computer vision. The goal of invariant object recognition is to recognise objects in a digital image despite variations in, for example, pose, lighting or occlusion. In this study, invariant object recognition is considered from the viewpoint of feature extraction. Thedifferences between local and global features are studied with emphasis on Hough transform and Gabor filtering based feature extraction. The methods are examined with respect to four capabilities: generality, invariance, stability, and efficiency. Invariant features are presented using both Hough transform and Gabor filtering. A modified Hough transform technique is also presented where the distortion tolerance is increased by incorporating local information. In addition, methods for decreasing the computational costs of the Hough transform employing parallel processing and local information are introduced.
Resumo:
Tässä insinöörityössä esitellään Stadian verkkoviestinnän VIDEOS-hankkeeseen liittyvän web-pohjaisen videoeditorin kehitys ja käytetyt teknologiat. Fooga-nimiseksi nimetty videoeditorin käyttämät tekniikat ovat Ruby, Ruby on Rails, FFmpeg, Mencoder, ImageMagick ja FLVTool2. Ruby on olio-pohjainen skriptikieli, Ruby on Rails on websovelluskehys ja muut tekniikat ovat komentorivipohjaisia työkaluja, jotka tarjoavat tärkeimmät toiminnallisuudet Foogalle. Tavoitteina oli tämän työn yhteydessä ohjelmoida Foogaan perustoiminnallisuudet, jotka mahdollistavat minimaaliset käyttömahdollisuudet kevääseen 2007 mennessä. Kehitystyö jatkuu vuoteen 2009 asti tarjoamalla samalla mahdollisuuden usealle insinöörityölle tekniikan ja liikenteen koulutusohjelmasta. Tämän lisäksi tässä insinöörityössä perehdytään Object-Relational Mapping-tekniikan perusteisiiin ja verrataan Ruby on Railsin ja Javan ORM-ominaisuuksia. Ruby on Railsin osalta esitellään ActiveRecord-luokka ja Javan osalta Hibernate, jonka johdantona on DAO/DTO-sunnittelumalli.
Resumo:
Selostus: Angiotensiini I -muuntavaa entsyymiä estävien peptidien aminohapposekvenssien esiintyminen viljan varastoproteiinien rakenteessa
Resumo:
Tämä diplomityö kuvaa viestintä sovelluksen ytimen kehitystyön Symbian-alustalle. Koko sovelluksen vaatimuksena oli vastaamattomiin puheluihin vastaaminen ennalta määritellyillä tekstiviesteillä käyttäjän määrittelemien sääntöjen mukaisesti. Ei-toiminnallisia vaatimuksia olivat resurssien käytön vähentäminen ja uudelleenkäytön mahdollistaminen. Täten tämän työn tavoitteena oli kehittää ydin, joka kapseloi sovelluksen sellaisen toiminnallisuuden, joka on käyttöliittymästä riippumatonta ja uudelleenkäytettävää. Kehitystyössä ohjasi Unified Process, joka on iteroiva, käyttötapauksien ohjaama ja arkkitehtuurikeskeinen ohjelmistoprosessi. Se kannusti käyttämään myös muita teollisuudenalan vakiintuneita menetelmiä, kuten suunnittelumalleja ja visuaalista mallintamista käyttäen Unified Modelling Languagea. Suunnittelumalleja käytettiin kehitystyön aikana ja ohjelmisto mallinnettiin visuaalisesti suunnittelun edistämiseksi ja selkiyttämiseksi. Alustan palveluita käytettiin hyväksi kehitysajan ja resurssien käytön minimoimiseksi. Ytimen päätehtäviksi määrättiin viestien lähettäminen sekä sääntöjen talletus ja tarkistaminen. Sovelluksen eri alueet, eli sovelluspalvelin ja käyttöliittymää, pystyivät käyttämään ydintä ja sillä ei ollut riippuvuuksia käyttöliittymätasolle. Täten resurssien käyttö väheni ja uudelleenkäytettävyys lisääntyi. Viestien lähettäminen toteutettiin Symbian-alustan menetelmin. Sääntöjen tallettamiseen tehtiin tallennuskehys, joka eristää sääntöjen sisäisen ja ulkoisen muodon. Tässä tapauksessa ulkoiseksi tallennustavaksi valittiin relaatiotietokanta. Sääntöjen tarkastaminen toteutettiin tavanomaisella olioiden yhteistoiminnalla. Päätavoite saavutettiin. tämä ja muut hyviksi arvioidut lopputulokset, kuten uudelleenkäytettävyys ja vähentynyt resurssien käyttö, arveltiin juontuvan suunnittelumallien ja Unified Processin käytöstä. Kyseiset menetelmät osoittivat mukautuvansa pieniinkin projekteihin. Menetelmien todettiin myös tukevan ja kannustavan kehitystyön aikaista oppimista, mikä oli välttämätöntä tässä tapauksessa.
Resumo:
Diplomityön tavoitteena oli parantaa oliotietokantaan perustuvan mökkivarausjärjestelmän pitkiä vasteaikoja ja epävakaata toimintaa sekä luoda tietokantaperusta uusille toiminnoille. Ratkaisua etsittiin korvaamalla oliotietokanta relaatiotietokannalla. Diplomityö on osa koko varausjärjestelmän uusintaa. Työn teoreettinen osuus käsittelee sekä olio- että relaatiotietokannan rakennetta ja oliomallin muuttamista relaatiomalliksi. Käytännön osassa esitellään relaatiotietokannan luominen vaiheittain ja kerrotaan tietojen siirron periaatteesta. Relaatiotietokannan havaittiin olevan vakaampi ja tehokkaampi vasteajoiltaan. Samoin sen vaatima levytilan ja muistin määrä oli pienempi kuin oliotietokannalla. Lisäksi siihen todettiin uusien järjestelmien liittämisen olevan yksinkertaisempaa.
Resumo:
Työn päätavoitteena oli selvittää hinnan ja kilpailutilanteen vaikutusta matkaviestinnän diffuusioon. Työn empiirinen osuus tarkasteli matkapuhelinliittymien hinnan vaikutusta liittymien diffuusioon sekä sitä, miten alan kilpailu on vaikuttanut matkaviestinnän hintatasoon. Työssä analysoitiin myös matkaviestinnän kilpailutilannetta Suomen markkinoilla. Tutkimuksen empiirinen aineisto kerättiin toissijaisista lähteistä, esimerkiksi EMC-tietokannasta. Tutkimus oli luonteeltaan kvantitatiivinen.Empiirisessä osassa käytetyt mallit oli muodostettu aikaisempien tutkimuksien perusteella. Regressioanalyysiä käytettiin arvioitaessa hinnan vaikutusta diffuusionopeuteen ja mahdollisten omaksujien määrään. Regressioanalyysissä sovellettiin ei-lineaarista mallia.Tutkimustulokset osoittivat, että tasaisesti laskevilla matkapuhelinliittymien sekä matkapuhelimien hinnoilla ei ole merkittävää vaikutusta matkaviestinnän diffuusioon. Myöskään kilpailutilanne ei ole vaikuttanut paljon matkaviestinnän yleiseen hintatasoon. Työn tulosten perusteella voitiin antaa myös muutamia toimenpide-ehdotuksia jatkotutkimuksia varten.
Resumo:
Diplomityössä luodaan viitekehys tuotetiedonhallintajärjestelmän esisuunnittelua varten. Siinä on kolme ulottuvuutta: lisäarvontuotto-, toiminnallisuus- ja ohjelmistoulottuvuus. Viitekehys auttaa- tunnistamaan lisäarvontuottokomponentit, joihin voidaan vaikuttaa tiettyjen ohjelmistoluokkien tarjoamilla tuotetiedonhallintatoiminnallisuuksilla. Viitekehyksen järjestelmäsuunnittelullista näkökulmaa hyödynnetään tutkittavissa yritystapauksissa perustuen laskentamatriisin muotoon mallinnettuihin ulottuvuuksien välisiin suhteisiin. Matriisiin syötetään lisäarvontuotto- ja toiminnallisuuskomponenttien saamat tärkeydet kohdeyrityksessä suoritetussa haastattelututkimuksessa. Matriisin tuotos on tietyn ohjelmiston soveltuvuus kyseisen yrityksen tapauksessa. Soveltuvuus on joukko tunnuslukuja, jotka analysoidaan tulostenkäsittelyvaiheessa. Soveltuvuustulokset avustavat kohdeyritystä sen valitessa lähestymistapaansa tuotetiedonhallintaan - ja kuvaavat esisuunnitellun tuotetiedonhallintajärjestelmän. Viitekehyksen rakentaminen vaatii perinpohjaisen lähestymistavan merkityksellisten lisäarvontuotto- ja toiminnallisuuskomponenttien sekä ohjelmistoluokkien määrittämiseen. Määritystyö perustuu työssä yksityiskohtaisesti laadittujen menetelmien ja komponenttiryhmitysten hyödyntämiselle. Kunkin alueen analysointi mahdollistaa viitekehyksen ja laskentamatriisin rakentamisen yhdenmukaisten määritysten perusteella. Viitekehykselle on ominaista sen muunneltavuus. Nykymuodossaan se soveltuu elektroniikka- ja high-tech yrityksille. Viitekehystä voidaan hyödyntää myös muilla toimialoilla muokkaamalla lisäarvontuottokomponentteja kunkin toimialan intressien mukaisesti. Vastaavasti analysoitava ohjelmisto voidaan valita tapauskohtaisesti. Laskentamatriisi on kuitenkin ensin päivitettävä valitun ohjelmiston kyvykkyyksillä, minkä jälkeen viitekehys voi tuottaa soveltuvuustuloksia kyseiseen yritystapaukseen perustuen
Resumo:
Tietokantamarkkinointi voi olla vain apuväline markkinointitoimenpiteiden suorittamisessa, mutta se voidaan toisaalta nähdä myös olennaisena osana asiakassuhdehallintaa. Tietokantamarkkinointi asiakassuhdehallinnan näkökulmasta tähtää asiakastyytyväisyyteen ja asiakasuskollisuuteen, sekä asiakassuhteen tuottavuuteen ja kannattavuuteen, mikä voidaan saavuttaa tehokkaan tiedonhallinnan avulla. Tämä mahdollistaa räätälöityjen toimenpiteiden suorittamisen ja tehostaa kohdentamista ja segmentointia, myös asiakkaiden tuottavuuden perusteella. Normatiivinen case-tutkimus, joka tehtiin Alankomaissa Eurooppalaisessa tietotekniikan lisäarvoa tuottavassa jälleenmyyntikanavassa osoittaa, että tietokantamarkkinointi etenkin asiakas- suhdehallinnan näkökulmasta olisi sopiva keino lisätä asiakastyytyväisyyttä ja –tuottavuutta. Se myös tehostaisi sisäisiä tietovirtoja ja markkinointitoimenpiteitä, kuten esimerkiksi markkinointiviestintää, kampanjanhallintaa ja myyntiprosesseja yritysten välisessä kaupankäynnissä.
Resumo:
Tutkimuksessa selvitettiin riskitiedon siirtoon ja hyödyntämiseen käytettyjä työkaluja ja toimintatapoja projektin myynti- ja toteutusvaiheessa. Toisena tavoitteena oli tuoda esille projektiympäristössä riskitiedon tehokkaaseen siirtämiseen ja hyödyntämiseen vaikuttavat seikat. Työssä peilataan kirjallisuudessa esitettyjä riskienhallinnan käytäntöjä yrityksen riskienhallinnan toimintatapoihin ja etsitään sopivia tapoja muokata nykyisiä riskitiedon hyödyntämistapoja tehokkaammaksi. Tutkimus toteutettiin tapaustutkimuksena ja aineistoa kerättiin syventävän haastattelun avulla, päivittämällä riskien tarkastuslista, tutkimalla järjestelmistä saatavia dokumentteja sekä GPSII -kehitysyhteistyöhankkeen tuloksia. Tutkimuksen tuloksena löydettiin riskitiedon hyödyntämiseen liittyviä ongelmia. Lisäksi todettiin selkeä tarve kehittää muutoksenhallintaan liittyvää tietokantajärjestelmää että tarve lisätä riskien tarkastuslistan läpikäyntikertojen määrää ja säännöllisyyttä.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
In this thesis I examine Service Oriented Architecture (SOA) considering both its positive and negative qualities for business organizations and IT. In SOA, services are loosely coupled and invoked through standard interfaces to enable business process independence from the underlying technology. As an architecture, SOA brings the key benefit of service reuse that may mean anything from simple application reuse to taking advantage of entire business processes across enterprises. SOA also promises interoperability especially by the Web services standards that enable platform independency. Cost efficiency is mainly a result of the savings in IT maintenance and reduced development costs. The most severe limitations of SOA are performance implications and security issues, but the applicability of SOA is also limited. Additional disadvantages of a service oriented approach include problems in data management and complexity questions, and the lack of agreement about SOA and its twofold nature as a business as well as technology approach leads to problematic interpretation of the available information. In this thesis I find the benefits and limitations of SOA for the purpose described above and propose that companies need to consider the decision to implement SOA carefully to determine whether the benefits will outdo the costs in the individual case.
Resumo:
The importance of the regional level in research has risen in the last few decades and a vast literature in the fields of, for instance, evolutionary and institutional economics, network theories, innovations and learning systems, as well as sociology, has focused on regional level questions. Recently the policy makers and regional actors have also began to pay increasing attention to the knowledge economy and its needs, in general, and the connectivity and support structures of regional clusters in particular. Nowadays knowledge is generally considered as the most important source of competitive advantage, but even the most specialised forms of knowledge are becoming a short-lived resource for example due to the accelerating pace of technological change. This emphasizes the need of foresight activities in national, regional and organizational levels and the integration of foresight and innovation activities. In regional setting this development sets great challenges especially in those regions having no university and thus usually very limited resources for research activities. Also the research problem of this dissertation is related to the need to better incorporate the information produced by foresight process to facilitate and to be used in regional practice-based innovation processes. This dissertation is a constructive case study the case being Lahti region and a network facilitating innovation policy adopted in that region. Dissertation consists of a summary and five articles and during the research process a construct or a conceptual model for solving this real life problem has been developed. It is also being implemented as part of the network facilitating innovation policy in the Lahti region.
Resumo:
Tehokkaasti toimiva sähköinen tiedonvälitys yrityksen omien sovellusten välillä sekä sen liikekumppaneiden kanssa on kasvanut merkittäväksi yrityksen kilpailukykyä lisääväksi tekijäksi. Yritysten erilaiset tietojärjestelmät asettavat haasteita tehokkaalle tiedonvälitykselle näiden järjestelmien välillä. Perinteiset EDI teknologioihin perustuvat sähköisen tiedonvälityksen ratkaisut eivät pysty mukautumaan nykyisin nopeasti muuttuviin markkinatilanteisiin. Palvelukeskeiseen arkkitehtuuriin ja Web-palveluihin perustuvat teknologiat mahdollistavat mukautumisen erilaisiin muutoksiin liiketoiminnassa nopeammin ja helpommin. Lisäksi ne nopeuttavat tiedon integrointia erilaisten tietojärjestelmien välillä, koska tiedonvälityksessä käytetään yleisesti hyväksyttyihin standardeihin perustuvia tiedonsiirtoprotokollia sekä tietoformaatteja. Diplomityössä esitellään keskeiset teknologiat ja menetelmät sähköisen tiedonvälityksen toteuttamiseen. Lisäksi työssä vertaillaan erilaisia vaihtoehtoja, joilla sähköinen tiedonvälitys voidaan toteuttaa. Vaihtoehtoina työssä ovat tiedonvälityspalveluiden ostaminen toiselta yritykseltä, olemassa olevan valmiin ohjelmiston hyödyntäminen, tai kokonaan uuden sovellusalustan kehittäminen. Työssä kuvaillaan palvelukeskeisen sovellusalustan toteutus, joka mahdollistaa tehokkaan sekä joustavan tiedonvälityksen sovellusten välillä. Alustan tarjoamien palveluiden päälle voidaan rakentaa erilaisia liiketoimintaa tukevia palveluita, jotka voivat hyödyntää sovellusalustan tarjoamia toiminnallisuuksia. Alustan toteutusta arvioidaan kolmen liiketoimintaskenaarion toteutuksesta saatujen kokemusten perusteella.