986 resultados para Seán Ó Ríordáin
Resumo:
Ubiquitous computing is about making computers and computerized artefacts a pervasive part of our everyday lifes, bringing more and more activities into the realm of information. The computationalization, informationalization of everyday activities increases not only our reach, efficiency and capabilities but also the amount and kinds of data gathered about us and our activities. In this thesis, I explore how information systems can be constructed so that they handle this personal data in a reasonable manner. The thesis provides two kinds of results: on one hand, tools and methods for both the construction as well as the evaluation of ubiquitous and mobile systems---on the other hand an evaluation of the privacy aspects of a ubiquitous social awareness system. The work emphasises real-world experiments as the most important way to study privacy. Additionally, the state of current information systems as regards data protection is studied. The tools and methods in this thesis consist of three distinct contributions. An algorithm for locationing in cellular networks is proposed that does not require the location information to be revealed beyond the user's terminal. A prototyping platform for the creation of context-aware ubiquitous applications called ContextPhone is described and released as open source. Finally, a set of methodological findings for the use of smartphones in social scientific field research is reported. A central contribution of this thesis are the pragmatic tools that allow other researchers to carry out experiments. The evaluation of the ubiquitous social awareness application ContextContacts covers both the usage of the system in general as well as an analysis of privacy implications. The usage of the system is analyzed in the light of how users make inferences of others based on real-time contextual cues mediated by the system, based on several long-term field studies. The analysis of privacy implications draws together the social psychological theory of self-presentation and research in privacy for ubiquitous computing, deriving a set of design guidelines for such systems. The main findings from these studies can be summarized as follows: The fact that ubiquitous computing systems gather more data about users can be used to not only study the use of such systems in an effort to create better systems but in general to study phenomena previously unstudied, such as the dynamic change of social networks. Systems that let people create new ways of presenting themselves to others can be fun for the users---but the self-presentation requires several thoughtful design decisions that allow the manipulation of the image mediated by the system. Finally, the growing amount of computational resources available to the users can be used to allow them to use the data themselves, rather than just being passive subjects of data gathering.
Resumo:
Cell transition data is obtained from a cellular phone that switches its current serving cell tower. The data consists of a sequence of transition events, which are pairs of cell identifiers and transition times. The focus of this thesis is applying data mining methods to such data, developing new algorithms, and extracting knowledge that will be a solid foundation on which to build location-aware applications. In addition to a thorough exploration of the features of the data, the tools and methods developed in this thesis provide solutions to three distinct research problems. First, we develop clustering algorithms that produce a reliable mapping between cell transitions and physical locations observed by users of mobile devices. The main clustering algorithm operates in online fashion, and we consider also a number of offline clustering methods for comparison. Second, we define the concept of significant locations, known as bases, and give an online algorithm for determining them. Finally, we consider the task of predicting the movement of the user, based on historical data. We develop a prediction algorithm that considers paths of movement in their entirety, instead of just the most recent movement history. All of the presented methods are evaluated with a significant body of real cell transition data, collected from about one hundred different individuals. The algorithms developed in this thesis are designed to be implemented on a mobile device, and require no extra hardware sensors or network infrastructure. By not relying on external services and keeping the user information as much as possible on the user s own personal device, we avoid privacy issues and let the users control the disclosure of their location information.
Resumo:
Employees and students in University of Helsinki use various services which require authentication. Some of these services require strong authentication. Traditionally this has been realized by meeting in person and presenting an official identification card. Some of these online services can be automatized by implementing existing techniques for strong authentication. Currently strong authentication is implemented by VETUMA-service. Mobile authentication is interesting alternative method. The purpose of this paper is to study the Mobile Signature Service technology and to find out the benefits and possibilities of its use for mobile authentication in University of Helsinki. Mobile authentication is suitable method for implementing strong authentication and for signing documents digitally. Mobile authentication can be used in many different ways in Helsinki university.
Resumo:
Usability testing is a productive and reliable method for evaluating the usability of software. Planning and implementing the test and analyzing its results is typically considered time-consuming, whereas applying usability methods in general is considered difficult. Because of this, usability testing is often priorized lower than more concrete issues in software engineering projects. Intranet Alma is a web service, users of which consist of students and personnel of the University of Helsinki. Alma was published in 2004 at the opening ceremony of the university. It has 45 000 users, and it replaces several former university network services. In this thesis, the usability of intranet Alma is evaluated with usability testing. The testing method applied has been lightened to make its taking into use as easy as possible. In the test, six students each tried to solve nine test tasks with Alma. As a result concrete usability problems were described in the final test report. Goal-orientation was given less importance in the applied usability testing. In addition, the system was tested only with test users from the largest user group. Usability test found general usability problems that occurred no matter the task or the user. However, further evaluation needs to be done: in addition to the general usability problems, there are task-dependent problems, solving of which requires thorough gathering of users goals. In the basic structure and central functionality of Alma, for example in navigation, there are serious and often repeating usability problems. It would be of interest to verify the designed user interface solutions to these problems before taking them into use. In the long run, the goals of the users, that the software is planned to support, are worth gathering, and the software development should be based on these goals.
Resumo:
Tässä työssä tutkitaan, miten vaatimusmäärittelydokumenttiin kirjatut vaatimukset kiinnittävät myöhemmissä ohjelmistokehitysprosessin vaiheissa tehtäviä käyttöliittymäratkaisuja. Lisäksi tutkitaan, jääkö käyttöliittymästä puuttumaan todellisissa käyttötilanteissa tarvittavia toimintoja, kun vaatimusmäärittely toteutetaan perinteisen vesiputousmallin mukaisesti. Tutkimuksessa tarkastellaan kahden Helsingin yliopiston ohjelmistotuotantoprojekti-kurssilla toteutetun opiskelijaprojektin tuotoksia. Tutkimuksessa selvitetään oppilaiden tuottamien käyttöliittymien keskeisimmät käyttöliittymäongelmat simulointitestaamalla käyttöliittymät. Testauksessa simuloitiin ohjelmiston kolme keskeisintä käyttötilannetta, jotka selvitettiin tekemällä kontekstuaalinen käyttäjähaastattelu yhdelle opettajatuutorille. Tämän jälkeen etsittiin, löytyvätkö ongelmien syyt ryhmien vaatimusmäärittelydokumentteihin kirjatuista käyttötapauskuvauksista tai muista vaatimuksista. Tämän työn keskeisimpinä tuloksina selvisi, että käyttötapaukset sitoivat aina toiminnon ja sen toteutuksen käyttöliittymässä, mutta vain pieni osa niistä kiinnitti käyttöliittymäratkaisuja haitallisesti. Vakavien tehokkuusongelmien ja järjestelmästä puuttuvan toiminnallisuuden syyt kuitenkin olivat nimenomaan vaatimusmäärittelydokumentin käyttötapauksissa. Muut vaatimukset kiinnittivät toimintoja niin korkealla tasolla, ettei niistä muodostunut ongelmallisia käyttöliittymäratkaisuja. Lisäksi havaittiin, että molemmista vaatimusmäärittelyistä oli jäänyt pois sellaisia toimintoja, joita oltaisiin tarvittu käyttötilanteen suorittamiseen tehokkaasti. Vaikuttaisi siltä, että vaatimusmäärittelyvaiheessa ei ole saatu selville käyttäjän todellisia käyttötilanteita, minkä seurauksena vaatimuksista on jäänyt pois oleellisia toimintoja.
Resumo:
Läpileikkaava näkökulma on tietokoneohjelman toteutukseen liittyvä vaatimus, jota ei voida toteuttaa käytetyllä ohjelmointikielellä omaan ohjelmayksikköön, vaan sen toteutus hajaantuu useisiin ohjelmayksiköihin. Aspektiohjelmointi on uusi ohjelmointiparadigma, jolla läpileikkaava näkökulma voidaan toteuttaa omaan ohjelmayksikköön, aspektiin. Aspekti kapseloi näkökulman toteutuksen neuvon ja liitoskohtamäärityksen avulla. Neuvo sisältää näkökulman toteuttavan ohjelmakoodin ja liitoskohtamääritys valitsee ne ohjelman liitoskohdat, joihin ohjelmakoodi liitetään. Nykyisillä aspektikielillä voidaan valita liitoskohtia pääasiassa niiden syntaktisten ominaisuuksien, kuten nimen ja sijainnin, perusteella. Syntaksiin sidoksissa olevat liitoskohtamääritykset ovat hauraita, sillä ohjelmaan tehdyt muutokset voivat rikkoa syntaksista riippuvia liitoskohtamäärityksiä, vaikka itse liitoskohtamäärityksiin ei tehtäisi muutoksia. Tätä ongelmaa kutsutaan hauraan liitoskohtamäärityksen ongelmaksi. Ongelma on merkittävä, koska hauraat liitoskohtamääritykset vaikeuttavat ohjelman kehitettävyyttä ja ylläpidettävyyttä. Tässä tutkielmassa perehdytään hauraan liitoskohtamäärityksen ongelmaan ja siihen esitettyihin ratkaisuihin. Tutkielmassa näytetään, että ongelmaan ei ole tällä hetkellä kunnollista ratkaisua.
Resumo:
Open Access -liike pyrkii vapauttamaan tieteellisen tiedon kaupallisuuden rajoitteista edesauttamalla artikkeleiden rinnakkaisversioiden avointa ja esteetöntä verkkotallennusta. Sen mahdollistamiseksi verkkoon perustetaan julkaisuarkistoja, joiden toiminta-ajatuksena on säilöä taustayhteisönsä tieteellinen tuotanto avoimesti ja keskitetysti yhteen paikkaan. Avoimen lähdekoodin arkistosovellukset jakavat sisältönsä OAI-protokollan avulla ja muodostavat näin globaalin virtuaalisen tietoverkon. Suurten tietomäärien käsittelyssä on huomioitava erityisesti kuvailutiedon rooli tehokkaiden hakujen toteuttamisessa sekä tiedon yksilöiminen verkossa erilaisten pysyvien tunnisteiden, kuten Handle:n tai URN:n avulla. Tieteellisen tiedon avoimella saatavuudella on merkittävä vaikutus myös oppimisen näkökulmasta. Julkaisuarkistot tarjoavat oppimateriaalin lisäksi uusia mahdollisuuksia julkaisukanavan ja oppimisymp äristön integroimiseen. Työssä esitellään avoimen saatavuuden keskeisiä teemoja sekä sen käytännön toteutusta varten kehitettyjä teknisiä ratkaisuja. Näiden pohjalta toteutetaan Meilahden kampuksen avoin julkaisuarkisto. Työssä pohditaan myös julkaisuarkistojen soveltuvuutta oppimisprosessin tukemiseen tutkivan- ja sulautuvan oppimisen viitekehyksessä. ACM Computing Classification System (CCS): H.3 [INFORMATION STORAGE AND RETRIEVAL], H.3.7 [Digital Libraries], H.3.3 [Information Search and Retrieval], H.3.5 [Online Information Services], K.3 [COMPUTERS AND EDUCATION], K.3.1 [Computer Uses in Education]
Resumo:
Delay and disruption tolerant networks (DTNs) are computer networks where round trip delays and error rates are high and disconnections frequent. Examples of these extreme networks are space communications, sensor networks, connecting rural villages to the Internet and even interconnecting commodity portable wireless devices and mobile phones. Basic elements of delay tolerant networks are a store-and-forward message transfer resembling traditional mail delivery, an opportunistic and intermittent routing, and an extensible cross-region resource naming service. Individual nodes of the network take an active part in routing the traffic and provide in-network data storage for application data that flows through the network. Application architecture for delay tolerant networks differs also from those used in traditional networks. It has become feasible to design applications that are network-aware and opportunistic, taking an advantage of different network connection speeds and capabilities. This might change some of the basic paradigms of network application design. DTN protocols will also support in designing applications which depend on processes to be persistent over reboots and power failures. DTN protocols could also be applicable to traditional networks in cases where high tolerance to delays or errors would be desired. It is apparent that challenged networks also challenge the traditional strictly layered model of network application design. This thesis provides an extensive introduction to delay tolerant networking concepts and applications. Most attention is given to challenging problems of routing and application architecture. Finally, future prospects of DTN applications and implementations are envisioned through recent research results and an interview with an active researcher of DTN networks.
Resumo:
Sanakirjat ovat rakenteisia tekstejä. Sana-artikkeleissa on nähtävissä selvästi erotettavissa olevia rakenneosia. Painetun sanakirjan muuntaminen rakenteiseen muotoon ei kuitenkaan ole aivan suoraviivaista. Tässä tutkielmassa kerrotaan sanakirjan rakennekuvauksen määrittelyn ja painetun sanakirjan rakenteistuksen ongelmista. Esimerkkinä käytetään Kotimaisten kielten tutkimuskeskuksessa (Kotus) kirjoitettavan Suomen murteiden sanakirjan (SMS) rakenteistusprojektia ja sen yhteydessä määriteltyä rakennekuvausta. SMS:n rakennekuvausta verrataan kielitieteellisten aineistojen koodaamisessa yleisesti käytetyn Text Encoding Initiative -suosituksen sekä uuden ISO 1951:2007 -sanakirjastandardin määrittelemiin rakennekuvauksiin. Muuntamista testataan käytännössä kirjoittamalla XSL-muunnosskripti, joka muuntaa SMS:n aineiston ISOstandardimuotoon. Muunnosprosessin voi todeta olleen hyödyllinen, koska sen aikana paljastui ongelmia sekä SMS:n rakennekuvauksessa että itse standardin määrittelyssä. Tulosten avulla SMS:n koodausta voidaan kehittää edelleen. Lopuksi tarkastellaan standardien käytöstä yleisesti saatavia hyötyjä ja mahdollisuuksia soveltaa niitä Kotuksen sanakirjatyöhön.
Resumo:
Viime aikoina yleistyneet flash-muistiin perustuvat tallennusvälineet ovat monessa suhteessa kiintolevyä parempia. Flash-muistissa on kuitenkin useita erityispiirteitä, jotka vaikeuttavat sen käyttöönottoa tietokantajärjestelmässä. Flash-muistissa kirjoittaminen on hitaampaa kuin lukeminen. Erityisesti hajanaisten sivujen päivittäminen on hidasta. Hajaluku flash-muistista on huomattavasti nopeampaa kuin kiintolevyltä. Näiden erityispiirteiden vuoksi tietokannan hallintajärjestelmä on optimoitava erikseen flash-muistia varten. Tässä optimoinnissa lähes kaikki tietokannan hallintajärjestelmän osa-alueet on toteutettava uudelleen flash-muistin näkökulmasta. Flash-muistin nopean hajaluvun ansiosta relaatioiden tiedot voidaan sijoitella flash-muistiin vapaammin kuin kiintolevylle. Yleisin tietokannoissa käytetty hakemistorakenne B+-puu ei toimi tehokkaasti flash-muistissa hajapäivitysten suuren määrän vuoksi. Flashmuistia varten on kehitetty useita B+-puun muunnelmia, joissa hajapäivitysten määrää on onnistuttu vähentämään. Puskurin hallintaa voidaan optimoida flash-muistia varten vähentämällä hitaiden kirjoitusten määrää nopeiden lukujen määrän kustannuksella sekä muuttamalla hitaita hajakirjoituksia nopeammiksi peräkkäisten sivujen kirjoituksiksi. B.3 (hardware, memory structures) H.2.2 (database management, physical design)
Resumo:
Tässä työssä arvioidaan kenttätutkimusaineiston hyödyntämisen etuja käyttöliittymäsuunnittelussa. Tulokset perustuvat kahden samasta ohjelmasta eri tavalla suunnitellun käyttöliittymän arviointiin. Käytettävissä on aikaisemmin suunniteltu käyttöliittymä ja tässä työssä suunniteltava uusi käyttöliittymä, jonka suunnittelussa hyödynnetään kenttätutkimuksesta saatua aineistoa. Aluksi tässä työssä käydään läpi kenttätutkimuksen perusteet, tehdään suunnitelma kenttätutkimuksesta ja käydään tekemässä käyttäjien työtiloissa kenttätutkimusta kontekstuaalisen haastattelun menetelmän mukaisesti. Seuraavaksi käydään läpi käyttöliittymäsuunnittelun teoriaa, esitellään tässä työssä käytettävä GDDsuunnittelumenetelmä ja tehdään sen tarvitsemat tavoitepohjaiset käyttötapaukset kenttätutkimusaineiston pohjalta. Tämän jälkeen simuloidaan uusi käyttöliittymä käyttäen ainoastaan kenttätutkimuksesta saatua aineistoa. Lopuksi simuloitua ja aiemmin suunniteltua käyttöliittymää arvioidaan oikeilla käyttäjillä läpikäyntipalavereissa ja analysoidaan tulokset. Tuloksissa osoitetaan miten todellisten käyttötilanteiden simulointi tuottaa erilaisia käyttöliittymäratkaisuja verrattuna toimintojen toteuttamiseen. Käyttöliittymäratkaisujen ongelmien pohjalta todetaan, että on hyvin tärkeää ymmärtää käyttäjien todellinen työprosessi. Pelkästään kaikkien tarpeellisten toimintojen toteuttaminen ei takaa hyvää käyttöliittymää. On tärkeää miten toiminnot ja tietosisältö on aseteltu käyttöliittymään. Simuloinnissa ne suunnitellaan käyttöliittymään käyttäjien työn kannalta paremmassa järjestyksessä. Tämä nopeuttaa käyttäjien työskentelyä ja parantaa opittavuutta, koska tietoa ja toiminnallisuutta ei tarvitse etsiä käyttöliittymästä. Tekstin lopussa arvioidaan tässä työssä käytettyjen menetelmien soveltamista käytäntöön käyttöliittymäsuunnitteluprosessiin käytetyn ajan ja läpikäyntipalaverien analyysin perusteella.
Resumo:
One of the most tangled fields of research is the field of defining and modeling affective concepts, i. e. concepts regarding emotions and feelings. The subject can be approached from many disciplines. The main problem is lack of generally approved definitions. However, e.g. linguists have recently started to check the consistency of their theories with the help of computer simulations. Definitions of affective concepts are needed for performing similar simulations in behavioral sciences. In this thesis, preliminary computational definitions of affects for a simple utility-maximizing agent are given. The definitions have been produced by synthetizing ideas from theories from several fields of research. The class of affects is defined as a superclass of emotions and feelings. Affect is defined as a process, in which a change in an agent's expected utility causes a bodily change. If the process is currently under the attention of the agent (i.e. the agent is conscious of it), the process is a feeling. If it is not, but can in principle be taken into attention (i.e. it is preconscious), the process is an emotion. Thus, affects do not presuppose consciousness, but emotions and affects do. Affects directed at unexpected materialized (i.e. past) events are delight and fright. Delight is the consequence of an unexpected positive event and fright is the consequence of an unexpected negative event. Affects directed at expected materialized (i.e. past) events are happiness (expected positive event materialized), disappointment (expected positive event did not materialize), sadness (expected negative event materialized) and relief (expected negative event did not materialize). Affects directed at expected unrealized (i.e. future) events are fear and hope. Some other affects can be defined as directed towards originators of the events. The affect classification has also been implemented as a computer program, the purpose of which is to ensure the coherence of the definitions and also to illustrate the capabilities of the model. The exact content of bodily changes associated with specific affects is not considered relevant from the point of view of the logical structure of affective phenomena. The utility function need also not be defined, since the target of examination is only its dynamics.
Resumo:
Tutkielmassa käsitellään luottamuksenhallintaa web-palveluympäristössä. Dynaaminen toimintaympäristö asettaa vaatimuksia luottamuksenhallintajärjestelmälle, jota käytetään paitsi paikallisten pääsynhallintapäätösten tekemiseen, myös laajemman mittakaavan päätöksenteon tukena, useiden autonomisten toimijoiden muodostamien yhteisöjen hallinnassa. Tutkielma esittelee Trust Based on Evidence -projektissa kehitetyn luottamuksenhallintajärjestelmän tiedollisen ja toiminnallisen mallin, paikallisesta ja yhteisön näkökulmasta. Mallia selkeytetään web-palveluympäristöön sijoittuvan esimerkin avulla. Luottamuksen käsitteen rakentamiseksi esitellään myös eri osa-alueille sijoittuvia luottamuksen malleja ja luottamusta käyttäviä järjestelmiä. Avoimessa verkkoympäristössä palveluntarjoaja joutuu tasapainottelemaan kahden osin vastakkaisen tavoitteen välillä: toisaalta järjestelmän tulisi olla mahdollisimman avoin, jotta se houkuttelisi käyttäjiä, toisaalta liiallinen avoimuus kasvattaa tietomurron riskiä. Kompromissin löytäminen on hankaloitunut edelleen saavutettavien käyttäjien määrän kasvaessa ja tarjottavien palvelujen monimutkaistuessa. Tehtävä vaatii toisaalta erikoistapauksien käsittelyä, toisaalta yleistettävyyttä laajan käyttäjistön suhteen. Tietoturvan ylläpidon automatisointia ovat edistäneet muun muassa politiikkapäätösten erottaminen toteutuksesta ja mahdollisten tietomurron merkkien tarkkailun delegointi siihen erikoistuneille ohjelmille (IDS). Palvelujen käyttäjistön kasvaessa ja siirtyessä nimettömämmiksi kurinpito ja tarkkailu kuitenkin vaikeutuvat entisestään, eikä ylläpitäjiä riitä sidottavaksi jatkuvaan käyttäjien vahtimiseen. Monesti valvoja voikin vain poistaa käyttöoikeuden häiriköltä, jolloin esimerkiksi hieman lievemmälle sääntöjen ``venyttämiselle'' ei juuri voi tehdä mitään. Luottamuksenhallinta helpottaa rikkomuksiin ja toisaalta hyvään käytökseen reagoimista asteittain. Sen pohjalta käyttäjien valvontaan, pääsynhallintaan ja resurssien rajoitukseen liittyvä hienosäätö voidaan tuoda ymmärrettäväksi osaksi ylläpitoa ja pitkälti myös automatisoida. Avainsanat: luottamuksenhallinta, Web Services
Resumo:
Normalisoitu kompressioetäisyys NCD on mitta kahden dataobjektin välisen keskinäisen etäisyyden laskemiseen. Etäisyysmitta kuvaa sitä, kuinka paljon kahdessa vertailtavassa dataobjektissa on samankaltaisuutta. NCD on normalisoidun informaatioetäisyyden NID:n approksimointi. NID perustuu dataobjektien Kolmogorov-kompleksisuuteen. Dataobjektit kuvataan bittijonoina ja niissä on sitä enemmän samankaltaisuutta, mitä enemmän ne sisältävät keskinäisinformaatiota. NID on universaali siinä mielessä, että se poikkeaa korkeintaan vakiotermin verran optimaalisesta menetelmästä. Vakiotermi ei puolestaan riipu lainkaan vertailtavista dataobjekteista. NCD approksimoi NID:tä reaalimaailman tiivistäjillä, minkä vuoksi se on vain näennäisuniversaali, mutta siitä huolimatta käyttökelpoinen. NCD:n nojalla muodostetaan datasta etäisyysmatriisi, jonka avulla alkiot voidaan ryvästää ja havainnollistaa erityisen kvartettimenetelmän avulla puurakenteeseen. Menetelmää on sovellettu lupaavasti monella alalla. Tutkielma käy läpi menetelmän taustalla olevan teorian ja esittelee sen sovelluskohteita sekä paneutuu erityisesti stemmatologiseen Heinrichi-aineistoon, jota testataan CompLearn-ilmaisohjelmalla, joka tuottaa etäisyysmatriisin sekä muodostaa puurakenteen kvartettimenetelmällä.
Resumo:
Perinteisillä tiedonhakumenetelmillä ei aina tavoiteta riittävän hyvin tekstien merkitystasoa. Tutkielman aiheena olevan semanttisen tiedonhaun tarkoituksena onkin päästä paremmin kä-siksi sanojen ilmaisemiin merkityksiin. Tämä tapahtuu käyttämällä hyväksi itse tekstiin tai sen esitys-/tallennusrakenteisiin tuotettua semanttista metatietoa. Tutkielmassa tarkastellaan lähemmin kahteen ryhmään kuuluvia semanttisia hakumenetelmiä. Toisen ryhmän muodostavat XML-tekstidokumenttien ominaisuuksia hyödyntävät, toisen taas semanttisen webin mahdollisuuksiin perustuvat järjestelmät. Lisäksi tutkielmassa luonnostellaan ideaalinen semanttinen tiedonhakujärjestelmä, johon tarkasteltuja järjestelmiä verrataan. Vertailussa todetaan, että lähes kaikki ideaalisen hakujärjestelmän piirteet tulevat jossain muodossa toteutetuiksi, joskaan eivät yhdessäkään järjestelmässä samalla kertaa. Semanttisilta hakuominaisuuksiltaan monipuolisimmaksi osoittautuu XML-perustainen SphereSearch-hakukone, joka esimerkiksi sallii käsitehaut ja kykenee muodostamaan vastauselementeistä dokumenttirajat ylittäviä kokonaisuuksia. Toisaalta kaikki tarkastellut järjestelmät noudattavat semanttisen tiedonhaun perusperiaatetta, jonka mukaan etsityn merkityssisällön tavoittamiseksi ei riitä pelkkä hakutermien paikallisten esiintymien löytäminen kohdeaineistosta. Tyypillisimmin periaate on toteutettu ottamalla tiedollisen yksikön (XML-elementin tai semanttisen webin ontologian mukaisen ilmentymäsolmun) relevanssia arvioitaessa huomioon myös siihen rakenteellisesti kytkeytyneiden yksiköiden sisältö ja näiden kytkösten laatu.