12 resultados para verkkosivuston tiedonlouhinta
Resumo:
Tässä työssä käsitellään kävijäseurannan menetelmiä ja toteutetaan niitä käytännössä. Web-analytiikkaohjelmistojen toimintaan tutustutaan, pääasiassa keskittyen Google Analyticsiin. Tavoitteena on selvittää Lappeenrannan matkailulaitepäätteiden käyttömääriä ja eriyttää niitä laitekohtaisesti. Web-analytiikasta tehdään kirjallisuuskatsaus ja kävijäseurantadataa analysoidaan sekä vertaillaan kahdesta eri verkkosivustosta. Lisäksi matkailulaitepäätteiden verkkosivuston lokeja tarkastellaan tiedonlouhinnan keinoin tarkoitusta varten kehitetyllä Python-sovelluksella. Työn pohjalta voidaan todeta, ettei matkailulaitepäätteiden käyttömääriä voida nykyisen toteutuksen perusteella eriyttää laitekohtaisesti. Istuntojen määrää ja tapahtumia voidaan kuitenkin seurata. Matkailulaitepäätteiden kävijäseurannassa tunnistetaan useita ongelmia, kuten päätteiden automaattisen verkkosivunpäivityksen tuloksia vääristävä vaikutus, osittainen Google Analytics -integraatio ja tärkeimpänä päätteen yksilöivän tunnistetiedon puuttuminen. Työssä ehdotetaan ratkaisuja, joilla mahdollistetaan kävijäseurannan tehokas käyttö ja laitekohtainen seuranta. Saadut tulokset korostavat kävijäseurannan toteutuksen suunnitelmallisuuden tärkeyttä.
Resumo:
Puheenvuoro presidentti Urho Kekkosen julkaistujen teosten arkiston julkistamistilaisuudesta Kansalliskirjastossa 18.4.2005. Arkisto on Kansalliset merkkihenkilöt -verkkosivuston ensimmäinen suuri aineistokokonaisuus.
Resumo:
The number of digital images has been increasing exponentially in the last few years. People have problems managing their image collections and finding a specific image. An automatic image categorization system could help them to manage images and find specific images. In this thesis, an unsupervised visual object categorization system was implemented to categorize a set of unknown images. The system is unsupervised, and hence, it does not need known images to train the system which needs to be manually obtained. Therefore, the number of possible categories and images can be huge. The system implemented in the thesis extracts local features from the images. These local features are used to build a codebook. The local features and the codebook are then used to generate a feature vector for an image. Images are categorized based on the feature vectors. The system is able to categorize any given set of images based on the visual appearance of the images. Images that have similar image regions are grouped together in the same category. Thus, for example, images which contain cars are assigned to the same cluster. The unsupervised visual object categorization system can be used in many situations, e.g., in an Internet search engine. The system can categorize images for a user, and the user can then easily find a specific type of image.
Resumo:
Business intelligencellä tarkoitetaan liiketoimintatiedon hallintaan liittyviä prosesseja ja tekniikoita. Se pitää sisällään tiedon keräämiseen, tallentamiseen, analysointiin ja jakamiseen käytettyt tuotteet, tekniikat ja prosessit, joiden tavoitteena on auttaa yrityksen työntekijöitä liiketoimintaan liittyvässä päätöksenteossa. Tutkimuksen tavoitteena on tutkia uuden yritysryhmän laajuisen BI-tietojärjestelmän suunnitteluun ja käyttöönotoon liittyviä seikkoja ja luoda valmiudet BI-tietojärjestelmän kehitys- ja käyttöönottoprojektin kohdeyrityksessä, jonka toimiala on kansainvälinen terveydenhoitoalan tukkuliiketoiminta. Uuden BI-järjestelmän halutaan tukeva yritysryhmän yritysten välistä integraatiota ja tehostavan tiedonhakuun ja analysointiin liittyviä prosesseja. Tutkimus toteutettiin konstruktiivisena tutkimuksena, joka kattaa kohdeyrityksen IT-arkkitehtuurin, tietosisällön, prosessit ja organisaation raportoinnin kannalta. Lisäksi työssä suoritettiin ohjelmistovertailu kahden markkinoilla toimivan merkittävän ohjelmistotalon BI-tuotteiden välillä. Työssä havaittiin, että BI-projekti on laaja-alainen ja suuri hanke, joka ulottuu läpi koko organisaation. BI-ohjelmiston tehokas hyödyntäminen asettaa vaatimuksia erityisesti taustajärjestelmien tiedon huolelliseen mallintamiseen liittyen. Työssä saatiin pilotoinnin kautta käytännön kokemuksia uudesta järjestelmästä ja sen tarjoamista mahdollisuuksista kohdeyrityksessä.
Resumo:
Työpaikkailmoitusten etsiminen internetistä on hyvin yleistä nykyään, mutta kysei- nen prosessi ei ole kehittynyt vuosien varrella muiden palvelujen tapaan. Tämän ta- kia tehokkaan ja omiin taitoihin kohdistetun haun tekeminen on hyvin vaikeaa. Tässä työssä toteutetaan verkkopalvelu, jonka avulla käyttäjä voi tutkia useasta läh- teestä haettuja IT-alan työpaikkailmoituksia ja etsiä niistä omille taidoilleen parhai- ten sopivia. Palvelun taustalla toimiva järjestelmä hakee ilmoitukset ja analysoi ne tarvittavan datan saamiseksi. Samalla ilmoituksista luodaan tilastoja, joita käyttäjät voivat tutkia. Kerätyistä tiedoista saadaan myös selville millaisia yhteyksiä eri am- mattien ja termien välillä on. Palvelun avulla on helppoa tehdä hakuja painottaen omia osaamisalueita. Haun tu- lokset tulostetaan parhaiten sopivasta huonoimmin sopivaan. Jokaisen ilmoituksen mukana tulostetaan listaus ilmoituksessa olleista ammattitermeistä ja jokaisen haun loppuun tulostetaan myös listaus kaikista haun tuloksista löytyneistä ilmoituksista. Kohdistetut haut ovat mahdollisia, koska palvelu kerää tietoja ilmoituksista löytyvis- tä termeistä luokitellen niitä. Tilastoista käyttäjällä on mahdollisuus seurata työpaikkailmoitusmäärien muutoksia viikoittain niin mol:n kuin monsterin järjestelmissä. Pelkkien ilmoitusmäärien lisäksi tilastoista voi seurata yksittäisten ammattitermien esiintymistä, sekä tietyn ammat- tialan ilmoitusten määriä.
Resumo:
Yritysten syvällinen ymmärrys työntekijöistä vaatii yrityksiltä monipuolista panostusta tiedonhallintaan. Tämän yhdistäminen ennakoivaan analytiikkaan ja tiedonlouhintaan mahdollistaa yrityksille uudenlaisen ulottuvuuden kehittää henkilöstöhallinnon toimintoja niin työntekijöiden kuin yrityksen etujen mukaisesti. Tutkielman tavoitteena oli selvittää tiedonlouhinnan hyödyntämistä henkilöstöhallinnossa. Tutkielma toteutettiin konstruktiivistä menetelmää hyödyntäen. Teoreettinen viitekehys keskittyi ennakoivan analytiikan ja tiedonlouhinnan konseptin ymmärtämiseen. Tutkielman empiriaosuus rakentui kvalitatiiviseen ja kvantitatiiviseen osiin. Kvalitatiivinen osa koostui tutkielman esitutkimuksesta, jossa käsiteltiin ennakoivan analytiikan ja tiedonlouhinnan hyödyntämistä. Kvantitatiivinen osa rakentui tiedonlouhintaprojektiin, joka toteutettiin henkilöstöhallintoon tutkien henkilöstövaihtuvuutta. Esitutkimuksen tuloksena tiedonlouhinnan hyödyntämisen haasteiksi ilmeni muun muassa tiedon omistajuus, osaaminen ja ymmärrys mahdollisuuksista. Tiedonlouhintaprojektin tuloksena voidaan todeta, että tutkimuksessa sovelletuista korrelaatioiden tutkimisista ja logistisesta regressioanalyysistä oli havaittavissa tilastollisia riippuvuuksia vapaaehtoisesti poistuvien työntekijöiden osalta.
Resumo:
Liiketoiminta-analytiikka on yksi yritysten suorituskyvyn johtamisen osa-alue, joka on viime aikoina noussut vahvasti esille yritysten kilpailuedun mahdollistavana avaintekijänä. Tämän tutkimuksen tavoitteena oli kartoittaa yritysten liiketoiminta-analytiikan nykytila ja tarpeet Suomessa. Tutkimus on luonteeltaan kvalitatiivinen vertaileva tutkimus. Tutkimuksen empiirinen aineisto kerättiin kahden menetelmän yhdistelmänä. Liiketoiminta-analytiikan hyödyntämisessä edistyneempien yrityksien asiantuntijoille toteutettiin haastattelut. Lisäksi toteutettiin sähköpostitse lomakemuotoinen kyselytutkimus, jotta saavutettaisiin kattavampi näkemys analytiikan markkinoista. Tutkimuksessa on kartoitettu, miten Suomessa ymmärretään liiketoiminta- analytiikan käsite eri yrityksien analytiikan asiantuntijoiden toimesta, sekä minkälaisissa päätöksentekotilanteissa liiketoiminta-analytiikkaa hyödynnetään ja minkälaisilla tavoilla. Lisäksi on selvitetty, miten liiketoiminta-analytiikan kehittämistä ja analytiikan kyvykkyyksiä hallitaan yrityksissä. Liiketoiminta-analytiikka on Suomessa tietyillä toimialoilla erittäin kehittynyttä, mutta yleisesti ollaan jäljessä alan edelläkävijöitä ja esimerkiksi Ruotsia. Liiketoiminta-analytiikan hyödyntäminen ja tarpeet ovat pitkälti kohdistuneet päätöksentekotilanteisiin, joissa yritys kohtaa asiakkaansa. Suurin yksittäinen este liiketoiminta-analytiikan hyödyntämiselle on resurssi- ja osaamisvaje.
Resumo:
Mikko Tolosen ja Eetu Mäkelän esitys FinELibin aineistopäivässä Helsingissä 16.4.2015.
Resumo:
The case company in this study is a large industrial engineering company whose business is largely based on delivering a wide-range of engineering projects. The aim of this study is to create and develop a fairly simple Excel-based tool for the sales department. The tool’s main function is to estimate and visualize the profitability of various small projects. The study also aims to find out other possible and more long-term solutions for tackling the problem in the future. The study is highly constructive and descriptive as it focuses on the development task and in the creation of a new operating model. The developed tool focuses on estimating the profitability of the small orders of the selected project portfolio currently on the bidding-phase (prospects) and will help the case company in the monthly reporting of sales figures. The tool will analyse the profitability of a certain project by calculating its fixed and variable costs, then further the gross margin and operating profit. The bidding phase of small project is a phase that has not been covered fully by the existing tools within the case company. The project portfolio tool can be taken into use immediately within the case company and it will provide fairly accurate estimate of the profitability figures of the recently sold small projects.
Resumo:
Tallennustekniikan kehittymisen ja internetin murroksen seurauksena tietomäärät ovat kasvaneet dramaattisesti. Tietomäärien yhä kasvaessa on kehitetty erilaisia menetelmiä relevantin tiedon noutamiseksi tällaisesta tietomassasta, prosessia kutsutaan tiedonlouhinnaksi. Erilaisten tiedonlouhinta-algoritmien joukosta tässä tutkielmassa käsitellään päätöspuualgoritmeja. Päätöspuilla on lukuisia etuja muihin tiedonlouhinta-algoritmeihin nähden: Tietoa tarvitsee yleisesti esikäsitellä hyvin minimaalisesti ennen algoritmille syöttämistään, lisäksi päätöspuilla voidaan tarkastella muuttujien välisiä epälineaarisia riippuvuksia. Kenties tärkeimpänä päätöspuiden käyttöä puoltavana asiana voidaan kuitenkin pitää niiden palauttamaa selkeää puumaista esitysmuotoa, josta johtopäätösten tekeminen on suhteellisen helppoa. Tutkielmassa selvitetään ensin korkealla abstraktiotasolla päätöspuualgoritmien perustoiminta ja ongelmat, jonka jälkeen käydään läpi algoritmien toiminnan kannalta olennaisia tilastollisia käsitteitä. Tämän jälkeen analysoidaan relevanteiksi koettuja päätöspuualgoritmeja matalammalla abstraktiotasolla ja lopuksi vertaillaan algoritmien yhtäläisyyksiä ja eroavaisuuksia esimerkiksi laskentatehokkuuden, toimintatarkkuuden ja tuottetujen puiden koon muodossa. Tutkielmassa vastataan siihen minkälaisen ongelman ratkaisuun on suositeltavaa valita minkäkin tyyppinen päätöspuualgoritmi. Apuna käytetään paitsi alan kirjallisuutta, myös omia käytännön kokeita Weka-tiedonlouhintatyökalulla. Tutkielmassa tullaan siihen tulokseen että CHAID-algoritmia suositellaan käytettävän pääsääntöisesti datan piirteiden analysointiin, kun taas muita tutkielmassa esiteltäviä algoritmeja käytetään lähinnä luokittelutehtäviin. ID3 on vanhentunut algoritmi, jota tulee käyttää enää lähinnä opetus- tai demonstraatiotarkoituksissa. Lopputulosten pohjalta voidaan myös sanoa että pääsääntöisesti haluttaessa suoritusnopeutta tulee hyödyntää C4.5:en pohjalta kehitettyä J48-algoritmia ja mikäli taasen halutaan pienempiä malleja suositellaan käytettäväksi CART:in pohjalta kehitettyä SimpleCart-algoritmia.
Resumo:
This thesis introduces heat demand forecasting models which are generated by using data mining algorithms. The forecast spans one full day and this forecast can be used in regulating heat consumption of buildings. For training the data mining models, two years of heat consumption data from a case building and weather measurement data from Finnish Meteorological Institute are used. The thesis utilizes Microsoft SQL Server Analysis Services data mining tools in generating the data mining models and CRISP-DM process framework to implement the research. Results show that the built models can predict heat demand at best with mean average percentage errors of 3.8% for 24-h profile and 5.9% for full day. A deployment model for integrating the generated data mining models into an existing building energy management system is also discussed.
Resumo:
Kristiina Hormia-Poutasen esitys ATT-foorumissa Tampereella 11.11.2015.