28 resultados para Access to Content
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Selostus: Eräiden ympäristövirikkeiden saatavuuden estämisen välittömät vaikutukset tarhaminkin käyttäytymiseen
Resumo:
Kirjoitus perustuu Suomalaisen Lakimiesyhdistyksen Lakimiespäivillä 5.10.2002 pidettyyn esitykseen
Resumo:
Tässä diplomityössä käsitellään henkilökohtaisen tiedon saannin kontrollointia ja tiedon kuvaamista. Työn käytännön osuudessa suunniteltiin XML –malli henkilökohtaisen tiedon kuvaamiseen. Henkilökohtaisten tietojen käyttäminen mahdollistaa henkilökohtaisen palvelun tarjoamisen ja myös palvelun automatisoinnin käyttäjälle. Henkilökohtaisen tiedon kuvaaminen on hyvin oleellista, jotta palvelut voivat kysellä ja ymmärtää tietoja. Henkilökohtaiseen tietoon vaikuttaa erilaisia tekijöitä, jotka on myös otettava huomioon tietoa kuvattaessa. Henkilökohtaisen tiedon leviäminen eri palveluiden tarjoajille tuo mukanaan myös riskejä. Henkilökohtaisen tiedon joutuminen väärän henkilön käsiin saattaa aiheuttaa vakaviakin ongelmia tiedon omistajalle. Henkilökohtaisen tiedon turvallisen ja luotettavan käytettävyyden kannalta onkin hyvin oleellista, että käyttäjällä on mahdollisuus kontrolloida kenelle hän haluaa luovuttaa mitäkin tietoa.
Resumo:
Aki Lassilan esitys Europeana työpajassa 20.11.2012 Helsingissä.
Resumo:
Työn tarkoituksena oli tutkia sisältö- ja diskurssianalyysin avulla kuinka yritykset viestivät asiakasreferenssejä verkkosivuillaan. Työssä keskityttiin tutkimaan yritysten referenssikuvausten teemoja ja diskursseja, sekä sitä kuinka referenssisuhde rakentuu diskursiivisesti referenssikuvauksissa. Tutkimukseen valittiin kolme suomalaista ICT-alan yritystä: Nokia, TietoEnator ja F-Secure. Aineisto koostuu 140:stä yritysten WWW-sivuilta kerätystä referenssikuvauksesta. Sisältöanalyysin tuloksena havaittiin, että referenssikuvaukset keskittyvät kuvaamaan yksittäisiä tuote- tai projektitoimituksia referenssiasiakkaille kyseisten asiakassuhteiden valossa. Analyysin tuloksena tunnistettiin kolme diskurssia: hyötydiskurssi, sitoutumisen diskurssi sekä teknologisen eksperttiyden diskurssi. Diskurssit paljastavat referenssikuvausten retoriset keinot ja konstruoivat referenssisuhteen ja toimittajan subjektiposition eri näkökulmista. Pääpaino referenssikuvauksissa on toimittajan ratkaisun tuomissa hyödyissä. Diskurssit tuottavat referenssisuhteesta kuvan hyötyjä tuovana ja läheisenä asiakassuhteena, joka tarjoaa väylän ulkopuolisiin kyvykkyyksiin ja teknologioihin. Toimittaja esitetään referenssikuvauksissa diskurssista riippuen hyötyjen tuojana, luotettavana partnerina sekä kokeneena eksperttinä. Referenssiasiakas sen sijaan esitetään vain yhdestä näkökulmasta stereotyyppisesti tärkeänä ja tyytyväisenä asiakkaana.
Resumo:
1. Introduction "The one that has compiled ... a database, the collection, securing the validity or presentation of which has required an essential investment, has the sole right to control the content over the whole work or over either a qualitatively or quantitatively substantial part of the work both by means of reproduction and by making them available to the public", Finnish Copyright Act, section 49.1 These are the laconic words that implemented the much-awaited and hotly debated European Community Directive on the legal protection of databases,2 the EDD, into Finnish Copyright legislation in 1998. Now in the year 2005, after more than half a decade of the domestic implementation it is yet uncertain as to the proper meaning and construction of the convoluted qualitative criteria the current legislation employs as a prerequisite for the database protection both in Finland and within the European Union. Further, this opaque Pan-European instrument has the potential of bringing about a number of far-reaching economic and cultural ramifications, which have remained largely uncharted or unobserved. Thus the task of understanding this particular and currently peculiarly European new intellectual property regime is twofold: first, to understand the mechanics and functioning of the EDD and second, to realise the potential and risks inherent in the new legislation in economic, cultural and societal dimensions. 2. Subject-matter of the study: basic issues The first part of the task mentioned above is straightforward: questions such as what is meant by the key concepts triggering the functioning of the EDD such as presentation of independent information, what constitutes an essential investment in acquiring data and when the reproduction of a given database reaches either qualitatively or quantitatively the threshold of substantiality before the right-holder of a database can avail himself of the remedies provided by the statutory framework remain unclear and call for a careful analysis. As for second task, it is already obvious that the practical importance of the legal protection providedby the database right is in the rapid increase. The accelerating transformationof information into digital form is an existing fact, not merely a reflection of a shape of things to come in the future. To take a simple example, the digitisation of a map, traditionally in paper format and protected by copyright, can provide the consumer a markedly easier and faster access to the wanted material and the price can be, depending on the current state of the marketplace, cheaper than that of the traditional form or even free by means of public lending libraries providing access to the information online. This also renders it possible for authors and publishers to make available and sell their products to markedly larger, international markets while the production and distribution costs can be kept at minimum due to the new electronic production, marketing and distributionmechanisms to mention a few. The troublesome side is for authors and publishers the vastly enhanced potential for illegal copying by electronic means, producing numerous virtually identical copies at speed. The fear of illegal copying canlead to stark technical protection that in turn can dampen down the demand for information goods and services and furthermore, efficiently hamper the right of access to the materials available lawfully in electronic form and thus weaken the possibility of access to information, education and the cultural heritage of anation or nations, a condition precedent for a functioning democracy. 3. Particular issues in Digital Economy and Information Networks All what is said above applies a fortiori to the databases. As a result of the ubiquity of the Internet and the pending breakthrough of Mobile Internet, peer-to-peer Networks, Localand Wide Local Area Networks, a rapidly increasing amount of information not protected by traditional copyright, such as various lists, catalogues and tables,3previously protected partially by the old section 49 of the Finnish Copyright act are available free or for consideration in the Internet, and by the same token importantly, numerous databases are collected in order to enable the marketing, tendering and selling products and services in above mentioned networks. Databases and the information embedded therein constitutes a pivotal element in virtually any commercial operation including product and service development, scientific research and education. A poignant but not instantaneously an obvious example of this is a database consisting of physical coordinates of a certain selected group of customers for marketing purposes through cellular phones, laptops and several handheld or vehicle-based devices connected online. These practical needs call for answer to a plethora of questions already outlined above: Has thecollection and securing the validity of this information required an essential input? What qualifies as a quantitatively or qualitatively significant investment? According to the Directive, the database comprises works, information and other independent materials, which are arranged in systematic or methodical way andare individually accessible by electronic or other means. Under what circumstances then, are the materials regarded as arranged in systematic or methodical way? Only when the protected elements of a database are established, the question concerning the scope of protection becomes acute. In digital context, the traditional notions of reproduction and making available to the public of digital materials seem to fit ill or lead into interpretations that are at variance with analogous domain as regards the lawful and illegal uses of information. This may well interfere with or rework the way in which the commercial and other operators have to establish themselves and function in the existing value networks of information products and services. 4. International sphere After the expiry of the implementation period for the European Community Directive on legal protection of databases, the goals of the Directive must have been consolidated into the domestic legislations of the current twenty-five Member States within the European Union. On one hand, these fundamental questions readily imply that the problemsrelated to correct construction of the Directive underlying the domestic legislation transpire the national boundaries. On the other hand, the disputes arisingon account of the implementation and interpretation of the Directive on the European level attract significance domestically. Consequently, the guidelines on correct interpretation of the Directive importing the practical, business-oriented solutions may well have application on European level. This underlines the exigency for a thorough analysis on the implications of the meaning and potential scope of Database protection in Finland and the European Union. This position hasto be contrasted with the larger, international sphere, which in early 2005 does differ markedly from European Union stance, directly having a negative effect on international trade particularly in digital content. A particular case in point is the USA, a database producer primus inter pares, not at least yet having aSui Generis database regime or its kin, while both the political and academic discourse on the matter abounds. 5. The objectives of the study The above mentioned background with its several open issues calls for the detailed study of thefollowing questions: -What is a database-at-law and when is a database protected by intellectual property rights, particularly by the European database regime?What is the international situation? -How is a database protected and what is its relation with other intellectual property regimes, particularly in the Digital context? -The opportunities and threats provided by current protection to creators, users and the society as a whole, including the commercial and cultural implications? -The difficult question on relation of the Database protection and protection of factual information as such. 6. Dsiposition The Study, in purporting to analyse and cast light on the questions above, is divided into three mainparts. The first part has the purpose of introducing the political and rationalbackground and subsequent legislative evolution path of the European database protection, reflected against the international backdrop on the issue. An introduction to databases, originally a vehicle of modern computing and information andcommunication technology, is also incorporated. The second part sets out the chosen and existing two-tier model of the database protection, reviewing both itscopyright and Sui Generis right facets in detail together with the emergent application of the machinery in real-life societal and particularly commercial context. Furthermore, a general outline of copyright, relevant in context of copyright databases is provided. For purposes of further comparison, a chapter on the precursor of Sui Generi, database right, the Nordic catalogue rule also ensues. The third and final part analyses the positive and negative impact of the database protection system and attempts to scrutinize the implications further in the future with some caveats and tentative recommendations, in particular as regards the convoluted issue concerning the IPR protection of information per se, a new tenet in the domain of copyright and related rights.
Resumo:
Hyvällä sisällönhallinnalla on mahdollista vaikuttaa myönteisesti liiketoiminnalliseen tulokseen, jos sisällönhallinnan eri vaikutusmahdollisuudet tunnistetaan. Kun organisaatiossa syntyvä tieto on vapaasti saatavilla, ja sitä voidaan tulkita ja hyödyntää erilaisiin tarpeisiin, tietojärjestelmän avulla voidaan vauhdittaa kehitystä ja uuden tiedon löytämistä. Tiedon keskeisin tehtävä on kehittää ja parantaa organisaation osaamista, jolloin pitää olla tietoa siitä, mitä, miksi ja kuinka tietoa on käytetty organisaatiossa. Kaiken liiketoimintaprosesseissa tuotetun tiedon kohdalla pitäisi miettiä kolmea tiedonhallinnan osa-aluetta: tiedon luontia, hallintaa ja hyödyntämistä. Tavoitteena on saavuttaa yrityksen määrämuotoisen tietopääoman paras mahdollinen hallinta.Työssä kuvataan sitä, mitä sisällönhallinta on, sen eri tasoja, sen käsitteellistä sijoittumista tietämyksenhallintaan, sisällönhallinnan järjestelmiä ja niiden merkitystä liiketoimintaprosesseissa. Lisäksi tarkastellaan niitä syitä, joiden vuoksi yritykset kiinnostuvat organisaatiossa olevan määrämuotoisen tiedon sisällönhallinnasta. Lopuksi analysoidaan, millaisia voivat olla liiketoiminnalliset, kilpailulliset tai rahalliset tavoitteet, joita asetetaan sisällönhallinnan tietojärjestelmäprojektille. Työn tueksi on haastateltu neljän suomalaisen suuryrityksen sisällönhallinnan tietojärjestelmäprojektin asiantuntijoita. Heidän kommenttejaan on analysoitu ja niiden perusteella on tehty johtopäätöksiä niistä syistä, joiden vuoksi yritykset yleensä sijoittavat resurssejaan sisällönhallintaan.
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Työssä on selvitetty soveltuvatko maailman johtavien ECM (Enterprise Content Management)-toimittajien järjestelmät palvelualustaksi dokumenttien hallinnan sovelluspalvelulle. Sovelluspalvelulla tarkoitetaan palvelutoimittajan (Application Service Provider, ASP) tiloissa toimivia sovelluksia, joita tarjotaan palveluna asiakkaille tietoverkon yli. Selvitystä varten työssä on kerätty tärkeimmät palvelualustaan kohdistuvat vaatimukset. Integrointivaatimusten tunnistaminen oli työn tärkein tavoite. Integroitavuuden lisäksi työssä on tutkittu sovelluspalvelumallista syntyviä erityisvaatimuksia. Vaatimusten keruu ja vaatimusten pohjalta tehty ominaisuuskartoitus ovat osa palvelualustan suunnittelua. Ominaisuuskartoituksessa vaatimuksista on laadittu laaja kyselylomake ja pyydetty valituilta toimittajilta siihen vastaukset. Saatuja vastauksia on peilattu asetettuihin vaatimuksiin. Tehtyjen havaintojen pohjalta on esitetty soveltuvuusarvio tutkittujen järjestelmien soveltuvuudesta tarpeita vastaavaksi sovelluspalvelualustaksi. Lopputuloksena on todettu, että useimpien järjestelmien soveltuvuus perustasolla on hyvä. Yksittäisiä selkeitä puutteita kuitenkin tunnistettiin. Integrointivaatimukset täyttyvät pääosin hyvin, mutta erityisesti tietoturvassa havaittiin puutteita.
Resumo:
Mobiilimarkkinoinnin markkinat ovat vasta rakentumassa ja suurin osa alan toimijoista etenkin Suomessa yrittää vielä löytää rooliaan. Sen sijaan Japanissa sisällöntuotantoliiketoiminta matkapuhelimille kukoistaa ja mobiilimarkkinointi on jo saavuttanut merkittävän aseman mobiili-internetin palvelutarjonnassa. Toisin kuin Suomessa, jossa mobiilimarkkinat ovat vielä lastenkengissä, Japanissa myös mobiilimarkkinoinnin arvoketju on vähitellen muotoutumassa.Tämän tutkimuksen tavoitteena oli antaa käsitys Japanin mobiilimarkkinoinnin dynamiikasta ja luoda viitekehys operaattorin tulevalle roolille mobiilimarkkinoinnin markkinoiden rakentamisessa. Tutkimus on deskriptiivinen ja aineisto on kerätty alan kirjallisuudesta sekä haastattelemalla tärkeitä mobiilimarkkinoiden toimijoita Japanissa. Japanissa operaattoreilla (NTT DoCoMo, J-Phone ja KDDI) on erittäin vahva asema mobiili-internetin ja mobiilimarkkinoinnin markkinoilla. Ne hallitsevat asiakasrajapintaa, päättävät mobiiliverkon ja matkapuhelimien ominaisuuksista sekä siitä, ketkä sisällöntuottajista pääsevät osaksi heidän laskutusjärjestelmäänsä. Markkinoinnissa operaattoreilla ei ole yhtä näkyvää roolia. Omistussuhteiden kautta ne kuitenkin vaikuttavat lähes koko arvoketjuun. Operaattorit ovat yhdessä Japanin suurimpien mainostoimistojen kanssa luoneet tytäryhtiöitä, jotka hoitavat mainonnan operaattorin mobiiliportaalissa. Japanissa operaattori on ottanut hallitsevan roolin mobiilimarkkinoiden rakentamisessa. Tiivis yhteistyö eri toimijoiden, kuten matkapuhelinvalmistajien, sisällöntuottajien ja mainostoimistojen kanssa, on mahdollistanut kokonaisvaltaisen palvelupaketin tarjoamisen. Palvelupaketti sisältää käyttäjäystävällisen liittymän mobiili-internetiin sekä edulliset puhelimet. Juuri tiivis yhteistyö onkin ollut yksi tärkeimmistä menestystekijöistä Japanin markkinoita rakennettaessa. Mobiilimarkkinoita rakennettaessa operaattorilla on merkittävä rooli markkinoiden muodostajana ja sisällön kokoojana. Operaattorien tulee varautua roskapostin vastaiseen taisteluun, jos sähköpostia annetaan lähettää suoraan matkapuhelimeen. On erityisen tärkeää varmistaa, ettei käyttäjien tarvitse kärsiä roskapostista, muuten suoramarkkinoinnin mahdollisuus matkapuhelimeen menetetään. Ainoastaan aktiivisella edistämisellä ja osallistumisella mobiili-internetin sisällöntuotanto- ja markkinointiliiketoimintaan operaattori voi vahvistaa markkina-asemaansa ja varmistaa osuutensa tulevista markkinoista.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
The provision of Internet access to large numbers has traditionally been under the control of operators, who have built closed access networks for connecting customers. As the access network (i.e. the last mile to the customer) is generally the most expensive part of the network because of the vast amount of cable required, many operators have been reluctant to build access networks in rural areas. There are problems also in urban areas, as incumbent operators may use various tactics to make it difficult for competitors to enter the market. Open access networking, where the goal is to connect multiple operators and other types of service providers to a shared network, changes the way in which networks are used. This change in network structure dismantles vertical integration in service provision and enables true competition as no service provider can prevent others fromcompeting in the open access network. This thesis describes the development from traditional closed access networks towards open access networking and analyses different types of open access solution. The thesis introduces a new open access network approach (The Lappeenranta Model) in greater detail. The Lappeenranta Model is compared to other types of open access networks. The thesis shows that end users and service providers see local open access and services as beneficial. In addition, the thesis discusses open access networking in a multidisciplinary fashion, focusing on the real-world challenges of open access networks.