41 resultados para Cluster Analysis. Information Theory. Entropy. Cross Information Potential. Complex Data
Resumo:
Identification of low-dimensional structures and main sources of variation from multivariate data are fundamental tasks in data analysis. Many methods aimed at these tasks involve solution of an optimization problem. Thus, the objective of this thesis is to develop computationally efficient and theoretically justified methods for solving such problems. Most of the thesis is based on a statistical model, where ridges of the density estimated from the data are considered as relevant features. Finding ridges, that are generalized maxima, necessitates development of advanced optimization methods. An efficient and convergent trust region Newton method for projecting a point onto a ridge of the underlying density is developed for this purpose. The method is utilized in a differential equation-based approach for tracing ridges and computing projection coordinates along them. The density estimation is done nonparametrically by using Gaussian kernels. This allows application of ridge-based methods with only mild assumptions on the underlying structure of the data. The statistical model and the ridge finding methods are adapted to two different applications. The first one is extraction of curvilinear structures from noisy data mixed with background clutter. The second one is a novel nonlinear generalization of principal component analysis (PCA) and its extension to time series data. The methods have a wide range of potential applications, where most of the earlier approaches are inadequate. Examples include identification of faults from seismic data and identification of filaments from cosmological data. Applicability of the nonlinear PCA to climate analysis and reconstruction of periodic patterns from noisy time series data are also demonstrated. Other contributions of the thesis include development of an efficient semidefinite optimization method for embedding graphs into the Euclidean space. The method produces structure-preserving embeddings that maximize interpoint distances. It is primarily developed for dimensionality reduction, but has also potential applications in graph theory and various areas of physics, chemistry and engineering. Asymptotic behaviour of ridges and maxima of Gaussian kernel densities is also investigated when the kernel bandwidth approaches infinity. The results are applied to the nonlinear PCA and to finding significant maxima of such densities, which is a typical problem in visual object tracking.
Resumo:
Crystal properties, product quality and particle size are determined by the operating conditions in the crystallization process. Thus, in order to obtain desired end-products, the crystallization process should be effectively controlled based on reliable kinetic information, which can be provided by powerful analytical tools such as Raman spectrometry and thermal analysis. The present research work studied various crystallization processes such as reactive crystallization, precipitation with anti-solvent and evaporation crystallization. The goal of the work was to understand more comprehensively the fundamentals, phenomena and utilizations of crystallization, and establish proper methods to control particle size distribution, especially for three phase gas-liquid-solid crystallization systems. As a part of the solid-liquid equilibrium studies in this work, prediction of KCl solubility in a MgCl2-KCl-H2O system was studied theoretically. Additionally, a solubility prediction model by Pitzer thermodynamic model was investigated based on solubility measurements of potassium dihydrogen phosphate with the presence of non-electronic organic substances in aqueous solutions. The prediction model helps to extend literature data and offers an easy and economical way to choose solvent for anti-solvent precipitation. Using experimental and modern analytical methods, precipitation kinetics and mass transfer in reactive crystallization of magnesium carbonate hydrates with magnesium hydroxide slurry and CO2 gas were systematically investigated. The obtained results gave deeper insight into gas-liquid-solid interactions and the mechanisms of this heterogeneous crystallization process. The research approach developed can provide theoretical guidance and act as a useful reference to promote development of gas-liquid reactive crystallization. Gas-liquid mass transfer of absorption in the presence of solid particles in a stirred tank was investigated in order to gain understanding of how different-sized particles interact with gas bubbles. Based on obtained volumetric mass transfer coefficient values, it was found that the influence of the presence of small particles on gas-liquid mass transfer cannot be ignored since there are interactions between bubbles and particles. Raman spectrometry was successfully applied for liquid and solids analysis in semi-batch anti-solvent precipitation and evaporation crystallization. Real-time information such as supersaturation, formation of precipitates and identification of crystal polymorphs could be obtained by Raman spectrometry. The solubility prediction models, monitoring methods for precipitation and empirical model for absorption developed in this study together with the methodologies used gives valuable information for aspects of industrial crystallization. Furthermore, Raman analysis was seen to be a potential controlling method for various crystallization processes.
Resumo:
This qualitative study has started from the interest to examine how the reality of crosscultural encounters is presented in the global business press. The research paper emphasizes different ways to classify culture and cross-cultural competency, both from the point of view of individuals and organizations. The analysis consists of public discourses, where cross-cultural realities are created through different persons, stories and contexts For data collection, a comprehensive database search was performed and 10 articles from the widely known worldwide business magazine The Financial Times were chosen as the data for the study paper. For the functions of addressing the research study questions, Thematic Content Analysis (TCA) and also Discourse Analysis (DA) are utilized, added with the continuous comparison method of grounded theory in the formation of the data.The academic references consist of literary works and articles presenting relevant concepts, creating a cross-cultural framework, and it is designed to assist the reader in the navigation through the topics of culture and cross-cultural competency. The repertoires were formed from the data and following, the first repertoire is contrast difference between home and target culture that the individual was able to discern. As a consequence of the first repertoire, the companies then offer cultural training to their employees to prepare them to situations of increasing levels of cultural variation. The third repertoire is increased awareness of other cultures, which is conveyed as a result of cultural training and contextual work experience. The fourth repertoire is globalization as an international business environment, where the people in the articles perform their job functions. It is stated in the conclusions that the representations emphasize Western values and personal traits in leadership.
Resumo:
In the new age of information technology, big data has grown to be the prominent phenomena. As information technology evolves, organizations have begun to adopt big data and apply it as a tool throughout their decision-making processes. Research on big data has grown in the past years however mainly from a technical stance and there is a void in business related cases. This thesis fills the gap in the research by addressing big data challenges and failure cases. The Technology-Organization-Environment framework was applied to carry out a literature review on trends in Business Intelligence and Knowledge management information system failures. A review of extant literature was carried out using a collection of leading information system journals. Academic papers and articles on big data, Business Intelligence, Decision Support Systems, and Knowledge Management systems were studied from both failure and success aspects in order to build a model for big data failure. I continue and delineate the contribution of the Information System failure literature as it is the principal dynamics behind technology-organization-environment framework. The gathered literature was then categorised and a failure model was developed from the identified critical failure points. The failure constructs were further categorized, defined, and tabulated into a contextual diagram. The developed model and table were designed to act as comprehensive starting point and as general guidance for academics, CIOs or other system stakeholders to facilitate decision-making in big data adoption process by measuring the effect of technological, organizational, and environmental variables with perceived benefits, dissatisfaction and discontinued use.
Resumo:
In the new age of information technology, big data has grown to be the prominent phenomena. As information technology evolves, organizations have begun to adopt big data and apply it as a tool throughout their decision-making processes. Research on big data has grown in the past years however mainly from a technical stance and there is a void in business related cases. This thesis fills the gap in the research by addressing big data challenges and failure cases. The Technology-Organization-Environment framework was applied to carry out a literature review on trends in Business Intelligence and Knowledge management information system failures. A review of extant literature was carried out using a collection of leading information system journals. Academic papers and articles on big data, Business Intelligence, Decision Support Systems, and Knowledge Management systems were studied from both failure and success aspects in order to build a model for big data failure. I continue and delineate the contribution of the Information System failure literature as it is the principal dynamics behind technology-organization-environment framework. The gathered literature was then categorised and a failure model was developed from the identified critical failure points. The failure constructs were further categorized, defined, and tabulated into a contextual diagram. The developed model and table were designed to act as comprehensive starting point and as general guidance for academics, CIOs or other system stakeholders to facilitate decision-making in big data adoption process by measuring the effect of technological, organizational, and environmental variables with perceived benefits, dissatisfaction and discontinued use.
Resumo:
The future of paying in the age of digitalization is a topic that includes varied visions. This master’s thesis explores images of the future of paying in the Single Euro Payment Area (SEPA) up to 2020 and 2025 through the views of experts specialized in paying. This study was commissioned by a credit management company in order to obtain more detailed information about the future of paying. Specifically, this thesis investigates what could be the most used payment methods in the future, what items could work as a medium of exchange in 2020 and how will they evolve towards the year 2025. Changing consumer behavior, trends connected to payment methods, security and private issues of new cashless payment methods were also part of this study. In the empirical part of the study the experts’ ideas about probable and preferable future images of paying were investigated through a two-round Disaggregative Delphi method. The questionnaire included numeric statements and open questions. Three alternative future images were created with the help of cluster analysis: “Unsurprising Future”, “Technology Driven Future” and “The Age of the Customer”. The plausible images had similarities and differences, which were reflected to the previous studies in the literature review. The study’s findings were formed based on the images of futures’ similarities and to the open questions answers that were received from the questionnaire. The main conclusion of the study was that development of technology will unify and diversify SEPA; the trend in 2020 seems to be towards more cashless payment methods but their usage depends on the countries’ financial possibilities and customer preferences. Mobile payments, cards and cash will be the main payment methods but the banks will have competitors from outside the financial sector. Wearable payment methods and NFC technology are seen as widely growing trends but subcutaneous payment devices will likely keep their niche position until 2025. In the meantime, security and private issues are seen to increase because of identity thefts and various frauds. Simultaneously, privacy will lose its meaning to younger consumers who are used to sharing their transaction and personal data with third parties in order to get access to attractive services. Easier access to consumers’ transaction data will probably open the door for hackers and cause new risks in paying processes. There exist many roads to future, and this study was not an attempt to give any complete answers about it even if some plausible assumptions about the future’s course were provided.
Resumo:
Tutkielmassa on tavoitteena selvittää raportoinnin tarjoamiamandollisuuksia yrityksen ohjauksen, ja johdon päätöksenteon helpottamiseksi. Teoriaosuudessa käydään läpi tiedon tarpeen määrittelyä erityisesti yritysjohdon näkökulmasta. Millaista tietoa yrityksen toiminnasta pitäisi tietojärjestelmiin kerätä, jotta sillä olisi todellista merkitystä. Toisinaan tietoa tarvitaan myösyrityksen ulkopuolella tapahtuvista asioista, ja myös tällaisen tiedon käsittelyn pitäisi olla mandollista yrityksen tietojärjestelmissä. Tämä luonnollisesti asettaa melkoisia vaatimuksia tietojärjestelmille. Niihin liittyen on jonkin verran esitelty teknisiin asioihin liittyviä tekijöitä. Tekniikkaa kuitenkin on olemassa hyvinkin monipuolisen tiedon käsittelyä varten. Hankalampaa on määrittää, se millä tiedolla on oikeasti merkitystä. Suuren tietomäärän tiivistämiseen ja Asentamiseen on niin ikään olemassa keinoja, joita esitellään yleisellä tasolla, keskittymättä mihinkään yksittäiseen malliin. Ajatuksena on lähinnä ollut se, että jokaisen yrityksen kannattaa miettiä omista lähtökohdistaanitselleen sopivin tapa. Kaikille ei välttämättä sovi sama kaavamainen malli, jatoisaalta erilaisten mittarimallien keskinäiset erotkin ovat hyvin pieniä. Periaatteessa kaikissa malleissa pyritään lähtökohtaisesti siihen, että yrityksestä saadaan mandollisimman kokonaisvaltainen kuva. Yrityksen toiminnan kannalta päätetään ne tekijät, jotka eniten vaikuttavat sen menestykseen jatkossa, ja tältä pohjalta myös löytyvät tärkeimmät seurattavat asiat. Lopuksi on lyhyesti kuvattu case-yrityksen toimintaa ja sen käyttämiä tieto-järjestelmiä.Tutkielmassa on myös analysoitu, mitä kaikkea tietoa yrityksen toiminnasta tarvittaisiin, ja mistä olemassa olevasta järjestelmästä se on mandollista saada. Mikäli tietoa ei löytynyt järjestelmistä, on kerrottu, miten asia on hoidettu raportoinnin kannalta, ja miten raportointi kokonaisuudessaan yritykselle rakennettiin tutkielman kuluessa.
Resumo:
Diplomityön tarkoituksena oli selvittää miten lajinvaihtoaikoja voidaan vähentää ryhmittäin pakasteleipomossa. Työn osatavoitteina oli jakaa tuotteet ryhmiin sekä selvittää todellinen vaihtoaika kuuden kuukauden ajalta, jolloin saatiin työhön tarvittava vertailuaineisto. Työ rajattiin koskemaan vain yrityksen tehokkainta linjaa, koska siinä valmistetaan eniten tuotteita. Linjan tuotteet jaettiin ryhmiin erilaisten ominaisuuksien perusteella. Vaihtoaikojen lyhennyksessä sovellettiin eri teorioita. Tärkeimpinä teorioina voidaan mainita Shigeo Shingon kehittämä SMED-menetelmä, 5S-prosessi ja ryhmäanalyysi. SMED-menetelmän tavoitteena on jakaa asetukset sisäisiin ja ulkoisiin asetuksiin ja erottaa ne toisistaan. Tavoitteena on myös siirtää sisäisiä asetuksia ulkoisiksi. 5S-prosessi on visuaalista johtamista, jonka tavoitteena on pitää työympäristö siistinä. Ryhmäanalyysissä tuotteet jaetaan ensin ryhmiin j a sen jälkeen tuotteet laitetaan ryhmien sisällä parhaaseen mahdolliseen ajojärjestykseen. Tämän jälkeen ryhmät laitetaan keskenään parhaaseen ajojärjestykseen. Työn tavoitteena oli vähentää vaihtoaikaa viisi prosenttia tuotannon kokonaisajasta sekä tehdä kehityssuunnitelma, jonka avulla voidaan vähentää vaihtoaikoja kohdeyrityksen muilla linjoilla. Kokeilujen jälkeen kohdelinjan keskimääräinen viikoittainen vaihtoaika lyheni 1,1 % ja keskimääräisen vaihdon pituus lyheni 19 minuuttia. Tulosten perusteella kehitettiin kahdeksankohtainen kehityssuunnitelma.
Resumo:
Tämän diplomityön tavoitteena oli luoda malli, jonka avulla matkaviestinverkko-operaattori Suomen 2G Oy voi kehittää kilpailijaseurantaansa. Kilpailijaseurantajärjestelmä auttaa organisoimaan toimintaa ja optimoimaan resurssien käyttöä. Työ jakaantuu kirjallisuustutkimukseen ja empiiriseen tutkimukseen. Kirjallisuustutkimuksessa selvitettiin kuinka kilpailijaseurantaa on käsitelty kirjallisuudessa ja millaisia huomioita sen käytännön toteutuksesta on tehty. Empiirisessä osuudessa selvitettiin kilpailijaseurannan nykytilaa Suomen 2G Oy:ssä ja sitä, millaisia ominaisuuksia tulevalla järjestelmällä pitäisi olla. Lopuksi esitetään malli kilpailijoiden systemaattisella seurannalle. Mallin tarkoitus on tehdä kilpailijaseurannasta systemaattisempaa ja tietovirroista organisaatiossa mahdollisimman sujuvia.
Resumo:
Tämä diplomityö on osa laajempaa Foster Wheeler Energia Oy:n kehitys- ja tuotteistamisprojektia. Projektin tavoitteena on saada enemmän informaatiota toimitetuilta kattila- ja voimalaitoksilta ja kehittää voimalaitoksiin liittyviä laskentaohjelmia. Laitoksilta kerättyä prosessitietoa jalostetaan erilaisilla työkaluilla. Työkalujen antama tieto auttaa laitoksen omistajaa ja henkilökuntaa laitoksen ajamisessa ja kunnossapidossa. Laitokselta saatava lisäinformaatio on hyödyksi myös Foster Wheeler Energia Oy:n tuotekehityksessä, seuraavissa projekteissa ja Service-toiminnassa. Työssä esitellään yleisimpiä tietokantoja ja vertaillaan niiden soveltuvuutta teollisuuden tiedonkeruuseen. Voimalaitokselle otetaan käyttöön tietokantapalvelin, joka kerää tietoa laitoksen automaatiojärjestelmästä ja lähettää sitä keskuspalvelimelle. Laitoksen tiedonkeruupalvelimelle valittu InSQL-tietokanta soveltuu hyvin voimalaitoksen prosessitiedon keräämiseen ja tallentamiseen. Myös koko laitospalvelimien ja keskuspalvelimen muodostamaa järjestelmää kehitetään. Lisäksi luodaan katsaus Foster Wheeler Energia Oy:n erilaisiin analysointiohjelmiin, niiden toimintaan ja pohditaan miten ne voivat käyttää tiedonkeruuta hyödyksi. Lopuksi suunnitellaan projektin tulevaisuutta ja kehittämisen eri osa-alueita sekä kartoitetaan projektiin liittyviä riskejä.
Resumo:
Tutkielman tavoitteena on säästämiskäyttäytymisen tutkiminen ja tarpeet tunnistavan segmentoinnin suorittaminen. Tavoitteena on muodostaa syvällinen näkemys säästämispalveluiden asiakkaista. Segmentointi perustetaan käyttäytymiselle. Tutkielma koostuu teoreettisesta ja empiirisestä osiosta. Teoreettinen osio on kirjoituspöytätutkimusta, jonka tietolähteinä ovat teoriakirjallisuuden lisäksi aiemmat tutkimukset pankkikäyttäytymisestä. Empiirisen osion aineisto on tilastollinen data 96 502 Merita Pankin asiakkaasta. Segmentointi suoritetaan K-klusterianalyysilla ja tuloksia tarkastellaan ristiintaulukoimalla. Tutkimus osoittaa säästämiskäyttäytymisen saavan erilaisia muotoja markkinoilla. Käyttäytymiselle perustuvalla segmentoinnilla syntyy viiden erilaisen säästäjätyypin profiilit. Tarkastelemalla tarjottuja palveluita ja asiakkaiden palvelukokonaisuuksia rinnakkain voidaan tunnistaa asiakkaiden tarpeita. Säästämispalveluiden markkinoiden yksityiskohtaisten tarpeiden tunnistamiseen tarvitaan tutkielmassa käytettyjen tietojen lisäksi kvantitatiivista tietoa asiakkaiden elämänkaaresta ja säästämisen tavoitteesta.
Resumo:
Sähkömarkkinaosapuolet ovat havainneet lukuisia puutteita ja haasteita tietojärjestelmien tiedonvaihtoon liittyvissä kysymyksissä. Tässä työssä käsitellään tiedonvaihdon ongelmaa mittausvirtojen kannalta. Tiedonvaihdon lisääntyminen ja sanomien monipuolistuminen on johtanut siihen, että läheskään kaikki tarpeelliset sanomat eivät ole standardoitu, ja jo luoduissa tai ehdotetuissa standardeissa on huomattavia eroavaisuuksia mm. eri maiden välillä. Tässä työssä kuvataan nykyinen automaattisen mittarinlukujärjestelmän ja jakeluverkkoyhtiön mittaustietovaraston välinen tiedonvaihtoratkaisu ja siihen liittyvät mittaustietovirrat. Työssä esitellään myös älykkäiden mittarien tuomia hyötyjä ja pohditaan uusien mittausten tuomia mahdollisuuksia. Lisäksi pohditaan nykyisten tietovirtojen koodituskäytäntöjen toimivuutta ja niiden puutteita ja ongelmia. Työssä laaditaan esimerkki standardi mittausvirtakonfiguraation mallintamiseksi sähkömarkkinoilla. Työn painopiste on energiamittaustietojen tietovirroissa lähtien laskutuksen tarpeista. Tavoitteena on automaattisten mittarinhallintaprojektien tuomien älykkäiden mittarien uusien mittausten aiheuttaman ja mahdollistaman tietovirran standardointi. Työssä pohditaan, kuinka tietovirta saadaan eheästi siirtymään mittauspalveluntarjoajan ja jakeluverkkoyhtiön järjestelmien välillä sekä miten uudet tiedonkäyttötarpeet tulisi koodittaa. Uudet sanomastandardiehdotukset esitetään XML-mallein, ja lopuksi pohditaan mallien toimivuutta ja niihin tarvittavia jatkokehitystarpeita.
Resumo:
Turun yliopiston arkeologian oppiaine tutki Raision Ihalan historiallisella kylätontilla, ns. Mullin eduspellolla, asuinpaikan, josta löydettiin maamme oloissa harvinaisen hyvin säilyneitä rakennusten puuosien jäännöksiä. Löytö on ainutlaatuinen Suomen oloissa ja sillä on kansainvälistäkin merkitystä, koska hyvin säilyneet myöhemmän rautakauden ja varhaisen keskiajan maaseutuasuinpaikat, joista tavataan puujäännöksiä, ovat harvinaisia erityisesti itäisen Itämeren piirissä. Rakennukset on ennallistettu käyttäen tiukkaa paikallisen analogian (’Tight Local Analogy’) metodia, erityisesti suoraa historiallista analogista lähestymistapaa. Tätä tarkoitusta varten muodostettiin aluksi arkeologinen, historiallinen ja etnografinen lähdemalli. Tämä valittiin maantieteellisesti ja ajallisesti relevantista tutkimusaineistosta pohjoisen Itämeren piiristä. Tiedot lounaisen Suomen rakennuksista ja rakennusteknologiasta katsottiin olevan tärkein osa mallia johtuen historiallisesta ja spatiaalisesta jatkuvuudesta. Lähdemalli yhdistettiin sitten Mullin arkeologiseen aineistoon ja analyysin tuloksena saatiin rakennusten ennallistukset. Mullista on voitu ennallistaa ainakin kuusi eri rakennusta neljässä eri rakennuspaikassa. Rakennusteknologia perustui kattoa kannattaviin horisontaalisiin pitkiin seinähirsiin, jotka oli nurkissa yhdistetty joko salvoksella tai varhopatsaalla. Kaikissa rakennuksissa ulkoseinän pituus oli 5 – 7 metriä. Löydettiin lisäksi savi- ja puulattioita sekä kaksi tulisijaa, savikupoliuuni ja avoin liesi. Runsaan palaneen saven perusteella on mahdollista päätellä, että katto oli mitä todennäköisimmin kaksilappeinen vuoliaiskatto, joka oli katettu puulla ja/tai turpeella. Kaikki rakennukset olivat samaa tyyppiä ja ne käsittivät isomman huoneen ja kapean eteisen. Kaikki analysoitu puu oli mäntyä. Ulkoalueelta tavattiin lisäksi tunkioita, ojia, aitoja ja erilaisia varastokuoppia. Rakennukset on ajoitettu 900-luvun lopulta 1200-luvun lopulle (cal AD). Lopuksi tutkittiin rakennuksia yhteisöllisessä ympäristössään, niiden ajallista asemaa sekä asukkaiden erilaisia spatiaalisia kokemuksia ja yhteyksiä. Raision Ihalaa analysoidaan sosiaalisen identiteetin ja sen materiaalisten ilmenemismuotojen kautta. Nämä sosiaaliset identiteetit muodostuvat kommunikaatioverkostoista eri spatiaalisilla ja yhteisöllisillä ta¬soilla. Näitä eri tasoja ovat: 1) kotitalous arjen toimintoineen, perhe ja sukulaisuussuhteet traditioineen; 2) paikallinen identiteetti, rakennus, rakennuspaikka, asuinpaikan ympäristö ja sen käyttö, (maa)talo ja kylä; 3) Raision Ihalan kylä laajemmassa alueellisessa kontekstissaan pohjoisen Itämeren piirissä: kauppiaiden ja käsityöläisten kontaktiverkostot, uskonnollinen identiteetti ja sen muutokset.
Resumo:
This thesis consists of three main theoretical themes: quality of data, success of information systems, and metadata in data warehousing. Loosely defined, metadata is descriptive data about data, and, in this thesis, master data means reference data about customers, products etc. The objective of the thesis is to contribute to an implementation of a metadata management solution for an industrial enterprise. The metadata system incorporates a repository, integration, delivery and access tools, as well as semantic rules and procedures for master data maintenance. It targets to improve maintenance processes and quality of hierarchical master data in the case company’s informational systems. That should bring benefits to whole organization in improved information quality, especially in cross-system data consistency, and in more efficient and effective data management processes. As the result of this thesis, the requirements for the metadata management solution in case were compiled, and the success of the new information system and the implementation project was evaluated.
Resumo:
Kävijätietojen keräys ja tiedon hyödyntäminen ovat monelle yritykselle yksi lisäkeino saavuttaa kohdeasiakkaansa sekä tarjota heille uusia lisäpalveluita. Kävijätietojen seuraamiselle sekä näiden tietojen hyödyntämiselle löytyy lukuisia käyttökohteita aina hakukoneoptimoinnista uusien asiakkaiden etsimiseen. Moni yritys onkin löytänyt tästä itselleen uuden toimialan. Työn tavoitteena on toteuttaa IP-pohjainen kävijätietojen keräämiseen soveltuva ohjelma, jonka tietoja pystytään hyödyntämään yrityksessä, jonka tuotekonseptiin kuuluu tarjota loppukäyttäjälle maksuttomia hakemisto- ja yhteystietopalveluita. Työssä keskitytään erityisesti ylläpidettävän kävijätietorekisterin luomiseen, mutta esitellään myös, kuinka esimerkiksi yrityksen hakutuloksia voidaan kerätyillä kävijätiedoilla tehostaa sekä tarjota palveluja käyttäville asiakkaille uusia lisäpalveluita. Työssä pyritään hyödyntämään tarjolla olevia avoimiin lisensseihin pohjautuvia ratkaisuja. Tiedonkeruuta toteutettaessa on jo alussa otettava huomioon, että tiedosta ei saada täysin eksaktia, vaan suuntaa-antavaa. Tämä ei kuitenkaan poista sitä, ettei tietoa voisi hyväksikäyttää.