5 resultados para Duplicate tuples

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tutkimuksen tavoitteena on ensin selvittää, kuinka ulkoisenja sisäisen tar-kastuksen välisen rajapinnan pitäisi lähdeaineiston perusteellateoriassa muodostua. Teoreettisen viitekehyksen muodostamisen jälkeen tutkimuk-sen empiirisessä osassa pyritään lähdeaineistoon perustuvan kyselytutki-muksen avulla muodostamaan käsitys siitä, millaiseksi sisäisen ja ulkoisen tarkastuksen välinen rajapinta käytännössä muodostuu. Tutkimuksen em-piirinen osa toteutettiin kyselylomakkeella, joka lähetettiin 60 suomalaisen yrityksen sisäisen tarkastuksen päällikölle ja päävastuulliselle tilintarkasta-jalle. Sisäisten ja ulkoisten tarkastajien mielipide-erojen tilastollinen mer-kitsevyys testattiin parillisten vastausten t-testillä. Tutkimustulokset osoittavat, että tarkastajien välilläon yhteistyötä ja että he koordinoivat työtään jonkin verran. Parhaiten koordinointitoimenpiteet onnistuvat päällekkäisen työn ehkäisemissä. Jos ja kun osapuolet ovat yh-teistyössä, tapahtuu se yleensä tilintarkastajien aloitteesta; tilintarkastajat päättävät missä ja milloin yhteistyö tapahtuu. Yhteistyön ja koordinaation lisäämiselle on siis paljon tilaa. Rohkaisevaa kuitenkin on, että vastausten perusteella yhteistyö on viime vuosina lisääntynyt.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tutkimus ”Ilmarisen Suomi” ja sen tekijät tarjoaa uutta tietoa ja historiallisen tulkinnan huipputeknologisen Suomen rakentamisesta sodanjälkeisenä aikana. Kirja kertoo ESKO-tietokoneen tekijöiden monipuolisesta toiminnasta sekä koneen kohtalosta 1950-luvulla. ESKOa rakennuttanut Matematiikkakonekomitea (1954­1960) suunnitteli laitteesta Suomen ensimmäistä tietokonetta, mutta kirjassa esitetyn tulkinnan mukaan komitealla oli myös laajempia, kansallisia ihanteita ja tavoitteita, kuten kansallisen keskuslaskutoimiston perustaminen. Varhaisia tietokoneita kutsuttiin niiden käyttöä kuvaavasti matematiikkakoneiksi. Kirja on ensimmäinen perusteellinen esitys ja samalla ensimmäinen tutkimus ESKOsta ja sen tekijöiden hankkeesta 1950-luvulla. Matematiikkakonekomitean johdossa toimivat aikansa huipputiedemiehet Rolf Nevanlinna ja Erkki Laurila. Väitöstutkimuksessa kysytään, miten maan ensimmäisen tietokoneen hankkimista perusteltiin, mitä Matematiikkakonekomitea oikeastaan teki ja millaisia erityisesti kansallisia motiiveja koneen tekijöiden toiminta ilmaisi. Tutkimuksessa käytetään monipuolisesti arkistoaineistoa, kirjallisuutta ja haastatteluja Suomesta, Saksasta ja Ruotsista. Tarkastelussa hyödynnetään erityisesti teknologian historian ja yhteiskuntatieteellisen tieteen- ja teknologiantutkimuksen tutkimuskirjallisuutta. Kirjassa tarkastellaan yksityiskohtaisesti sitä, miten ESKOn tekijät yhdistivät tekniikan ja kansalliset perustelut sekä rakensivat uudenlaista, teknisesti taitavaa ”Ilmarisen Suomea” yhdessä ja kilvan muiden tahojen kanssa tuottaen teknologiasta kansallista projektia suomalaisille. Matematiikkakonekomitean ja ESKO-hankkeen tutkimisen perusteella suomalaisten ja teknologian suhteesta voidaan sanoa, että tekniikasta ei vain tullut kansallinen asia suomalaisille, vaan tekniikasta nimenomaan tehtiin kansallinen projekti, joka ei suinkaan ollut erityisen yksimielinen edes sodanjälkeisenä aikana. Tutkimuksen mukaan kotimainen komitea sai paljon aikaan ja tuotti vielä merkittävämpiä seurauksia. Näin siitä huolimatta, että ESKO valmistui pahasti myöhässä, vuonna 1960. Komitea myötävaikutti niin IBM:n menestykseen Suomessa, valtiojohtoisen tiedepolitiikan alkuun kuin Nokian edeltäjän Kaapelitehtaan elektroniikkaosaamisen syntyyn.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In a networked business environment the visibility requirements towards the supply operations and customer interface has become tighter. In order to meet those requirements the master data of case company is seen as an enabler. However the current state of master data and its quality are not seen good enough to meet those requirements. In this thesis the target of research was to develop a process for managing master data quality as a continuous process and find solutions to cleanse the current customer and supplier data to meet the quality requirements defined in that process. Based on the theory of Master Data Management and data cleansing, small amount of master data was analyzed and cleansed using one commercial data cleansing solution available on the market. This was conducted in cooperation with the vendor as a proof of concept. In the proof of concept the cleansing solution’s applicability to improve the quality of current master data was proved. Based on those findings and the theory of data management the recommendations and proposals for improving the quality of data were given. In the results was also discovered that the biggest reasons for poor data quality is the lack of data governance in the company, and the current master data solutions and its restrictions.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Palvelukeskeinen arkkitehtuuri on uusi tapa rakentaa tietojärjestelmiä. Se perustuu siihen, että logiikasta koostetaan yleiskäyttöisiä palveluita, joita tarjotaan muiden järjestelmän osien käyttöön. Tällöin samoja asioita ei tarvitse toteuttaa moneen kertaan ja järjestelmää voidaan hyödyntää tehokkaasti ja monipuolisesti. Näiden palveluiden hallinnassa voidaan hyödyntää palveluväyliä, eli ESB -tuotteita. Palveluväylät sisältävät erilaisia mekanismeja, joiden avulla palveluihin liittyvää viestiliikennettä voidaan reitittää, muokata ja valvoa eri tavoin. Nykyisissä palvelukeskeisissä toteutuksissa käytetään usein XML -kieleen pohjautuvia Web Service -määrityksiä. Ne tarjoavat ympäristöriippumattoman pohjan, joka täyttää suoraan useita palvelukeskeisen arkkitehtuurin vaatimuksia. Määritysten ympärille on myös paljon valmiita laajennuksia, joiden avulla palveluihin voidaan liittää lisätoiminnallisuutta. Lahden kaupunki lähti Fenix -projektin yhteydessä kehittämään uutta kuntien käyttöön soveltuvaa järjestelmää, joka hyödyntää palvelukeskeisen arkkitehtuurin periaatteita. Järjestelmä jaettiin selkeisiin kerroksiin siten, että käyttöliittymä erotettiin palvelulogiikoista palveluväylän avulla. Tällöin järjestelmä saatiin jaettua loogisiin kokonaisuuksiin, joilla on selkeä rooli. Taustapalvelut hoitavat käsitteiden hallinnan, sekä niihin liittyvät liiketoimintasäännöt. Käyttöliittymäkerros hoitaa tiedon esittämisen ja tarjoaa graafisen, selainpohjaisen käyttöliittymän palveluihin. Palveluväylä hoitaa liikenteen reitittämisen, sekä huolehtii palveluihin liittyvistä käyttöoikeuksista ja tilastoinnista. Lopputuloksena on loputtomiin laajennettavissa oleva järjestelmä, jonka päälle voidaan kehittää erilaisia sähköisiä palveluita kunnan ja sen asukkaiden välille.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Feature extraction is the part of pattern recognition, where the sensor data is transformed into a more suitable form for the machine to interpret. The purpose of this step is also to reduce the amount of information passed to the next stages of the system, and to preserve the essential information in the view of discriminating the data into different classes. For instance, in the case of image analysis the actual image intensities are vulnerable to various environmental effects, such as lighting changes and the feature extraction can be used as means for detecting features, which are invariant to certain types of illumination changes. Finally, classification tries to make decisions based on the previously transformed data. The main focus of this thesis is on developing new methods for the embedded feature extraction based on local non-parametric image descriptors. Also, feature analysis is carried out for the selected image features. Low-level Local Binary Pattern (LBP) based features are in a main role in the analysis. In the embedded domain, the pattern recognition system must usually meet strict performance constraints, such as high speed, compact size and low power consumption. The characteristics of the final system can be seen as a trade-off between these metrics, which is largely affected by the decisions made during the implementation phase. The implementation alternatives of the LBP based feature extraction are explored in the embedded domain in the context of focal-plane vision processors. In particular, the thesis demonstrates the LBP extraction with MIPA4k massively parallel focal-plane processor IC. Also higher level processing is incorporated to this framework, by means of a framework for implementing a single chip face recognition system. Furthermore, a new method for determining optical flow based on LBPs, designed in particular to the embedded domain is presented. Inspired by some of the principles observed through the feature analysis of the Local Binary Patterns, an extension to the well known non-parametric rank transform is proposed, and its performance is evaluated in face recognition experiments with a standard dataset. Finally, an a priori model where the LBPs are seen as combinations of n-tuples is also presented