17 resultados para online resources
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Tämän tutkielman aiheena on ammattikääntäjien tiedonhaku, kun käytettävissä on ainoastaan verkkolähteitä. Tutkimuksessa on tarkasteltu, mistä ja miten ammattikääntäjät etsivät tietoa internetistä kääntäessään lähtötekstiä englannista suomeen. Lisäksi tutkimuksen tarkoituksena on osoittaa, että tiedonhakutaidot ja lähdekriittisyys ovat käännöskompetensseja, joita tulisi sekä ylläpitää että opettaa osana kääntäjäkoulutusta. Tutkimuksen aineisto kerättiin empiirisesti käyttämällä kolmea metodia. Käännösprosessi ja sen aikana tapahtunut tiedonhaku tallennettiin käyttäen Camtasia-näyttövideointiohjelmaa ja Translog-II -näppäilyntallennusohjelmaa. Lisäksi tutkimukseen osallistuneet kääntäjät täyttivät kaksi kyselyä, joista ensimmäinen sisälsi taustatietokysymyksiä ja toinen itse prosessiin liittyviä retrospektiivisiä kysymyksiä. Kyselyt toteutettiin Webropol-kyselytyökalulla. Aineistoa kerättiin yhteensä viidestä koetilanteesta. Tutkimuksessa tarkasteltiin lähemmin kolmen ammattikääntäjän tiedon-hakutoimintoja erottelemalla käännösprosesseista ne tauot, joiden aikana kääntäjät etsivät tietoa internetistä. Käytettyjen verkkolähteiden osalta tutkimuksessa saatiin vastaavia tuloksia kuin aiemmissakin tutkimuksissa: eniten käytettyjä olivat Google, Wikipedia sekä erilaiset verkkosanakirjat. Tässä tutkimuksessa kuitenkin paljastui, että ammattikääntäjien tiedonhaun toimintamallit vaihtelevat riippuen niin kääntäjän erikoisalasta kuin hänen tiedonhakutaitojensa tasosta. Joutuessaan työskentelemään tutun työympäristönsä ja oman erikoisalansa ulkopuolella turvautuu myös osa ammattikääntäjistä alkeellisimpiin tiedonhakutekniikoihin, joita käännöstieteen opiskelijoiden on havaittu yleisesti käyttävän. Tulokset paljastivat myös, että tiedonhaku voi viedä jopa 70 prosenttia koko käännösprosessiin kuluvasta ajasta riippuen kääntäjän aiemmasta lähtötekstin aihepiiriin liittyvästä tietopohjasta ja tiedonhaun tehokkuudesta. Tutkimuksessa saatujen tulosten pohjalta voidaan sanoa, että myös ammattikääntäjien tulisi kehittää tiedonhakutaitojaan pitääkseen käännösprosessinsa tehokkaana. Lisäksi kääntäjien pitäisi muistaa arvioida kriittisesti käyttämiään tietolähteitä: lähdekritiikki on tarpeen erityisesti verkkolähteitä käytettäessä. Tästä syystä tiedonhakutaitoja ja lähdekriittisyyttä tulisikin opettaa ja harjoitella jo osana kääntäjäkoulutusta. Kääntäjien ei myöskään pidä jättää tiedonhakua pelkkien verkkolähteiden varaan, vaan jatkossakin käyttää hyväkseen niin painettuja tietolähteitä kuin myös henkilölähteitä.
Resumo:
Most Finnish periodical magazines have a website, often an online service. The objective of this thesis is to understand the magazines’ resources and capabilities and match them with online strategies’ goals and objectives. The thesis’ theoretical part focuses on explaining and classifying resources, capabilities, goals and objectives, and applying everything into Finnish magazine publishing context. In the empirical part, there is a comparative case study of four magazines. The findings indicate that with cooperating, advertising and community hosting capabilities magazines may utilize their human, brand, content and customer base resources. The resources can be further addressed to reach profitability, customer-centricity and brand congruency goals.
Resumo:
The main objective of this research paper was to synthesize, integrate and analyze the theoretical foundation of the resource-based view of the firm on sustainable competitive advantage. Accordingly, this research was a literature research employing the methodology of interpretative study of concept and unobtrusive measures. The core and majority of the research data was gathered from the major online journal databases. Only peer-reviewed articles from highly-esteemed journals on the subject of competitive advantage were used. The theoretical core of the research paper was centred on resources, capabilities, and the sustainability dilemma of competitive advantage. Furthermore, other strategic management concepts relating to the resource-based view of the firm were used with reference to the research objectives. The resource-based view of the firm continues to be a controversial but important are of strategic management research on sustainable competitive advantage. Consequently, the theoretical foundation and the empirical testing of the framework needs further work. However, it is evident that internal organizational factors in the form of resources and capabilities are vital for the formation of sustainable competitive advantage. Resources and capabilities are not, however, valuable on their own - competitive advantage requires seamless interplay and complementarity between bundles of resources and capabilities.
Resumo:
Abstract
Resumo:
Tässä diplomityössä esitellään ohjelmistotestauksen ja verifioinnin yleisiä periaatteita sekä käsitellään tarkemmin älypuhelinohjelmistojen verifiointia. Työssä esitellään myös älypuhelimissa käytettävä Symbian-käyttöjärjestelmä. Työn käytännön osuudessa suunniteltiin ja toteutettiin Symbian-käyttöjärjestelmässä toimiva palvelin, joka tarkkailee ja tallentaa järjestelmäresurssien käyttöä. Verifiointi on tärkeä ja kuluja aiheuttava tehtävä älypuhelinohjelmistojen kehityssyklissä. Kuluja voidaan vähentää automatisoimalla osa verifiointiprosessista. Toteutettu palvelin automatisoijärjestelmäresurssien tarkkailun tallentamalla tietoja niistä tiedostoon testien ajon aikana. Kun testit ajetaan uudestaan, uusia tuloksia vertaillaan lähdetallenteeseen. Jos tulokset eivät ole käyttäjän asettamien virherajojen sisällä, siitä ilmoitetaan käyttäjälle. Virherajojen ja lähdetallenteen määrittäminen saattaa osoittautua vaikeaksi. Kuitenkin, jos ne määritetään sopivasti, palvelin tuottaa hyödyllistä tietoa poikkeamista järjestelmäresurssien kulutuksessa testaajille.
Resumo:
It seems as if magazine publishers have only haphazardly listed multiple goals for their websites, and have not carefully reflectedon how to achieve them. We present a framework for defining a magazine's onlinestrategy based on previous studies and on secondary data from the industry. We identify three steps in the strategy process. The first is to determine whether the magazine would actually benefit from online presence: although most magazines will never make money from their websites, a web presence may still be justified. The second step is to choose an optimal online strategy that matches the magazine's competitive strategy. Finally, we argue that magazine publishers should carefully consider to what extent they should allow their readers to be involvedin the web pages. This interactivity could be seen as a key factor in exploiting the unique nature of the Internet. It is our understanding that virtual communities could, at best, be a way of creating more value for a magazine's readers, advertisers and editors, alike. We formulate a typology of five different onlinebusiness concepts for magazines based on these three strategic steps.
Resumo:
Monet henkilökohtaiset mobiililaitteet tarjoavat mahdollisuuden tallentaa henkilötietoja ja mahdollisuuden lyhyen kantaman radiotekniikoiden hyödyntämiseen. Vastaavasti henkilötietoja käyttävien tai vaativien verkkopalveluiden määrä on kasvussa. Mobiililaitteisiin tallennetut henkilötiedot tarjoavat potentiaalisen keinon välttää samojen henkilötietojen toistuva käsinsyöttö erilaisiin verkkopalveluihin ja keskitettyyn ajantasallapitoon. Tässä työssä käydään läpi ratkaisumalli henkilökohtaisen mobiililaitteen ja verkkopalveluiden välillä tapahtuvaan henkilötietojen siirtoon ja synkronointiin. Malli pohjautuu selainlaajennukseen, joka voi pyytää sekä selaimessa auki olevalta verkkopalvelun sivulta että mobiililta päätelaitteelta senhetkiset henkilötiedot ja synkronoida ne. Jo olemassaolevia henkilötietojen hallintaa helpottavia ratkaisuja käydään läpi arvioiden käyttökelpoisuutta tämänkaltaisiin tarpeisiin. Ratkaisumallin kannalta olennaiset tekniikat ja standardit, erityisesti Bluetooth ja SyncML, esitellään. Ratkaisumallin arkkitehtuuri käydään korkealla tasolla läpi ja esitellään toteutuksen yksityiskohtia. Tuloksena on periaatteeltaan kelvollinen henkilökohtaisten tietojen synkronointijärjestelmä, jonka toteutusta nykyisten mobiilien päätelaitteiden toiminnallisuus jossain määrin hankaloittaa.
Resumo:
Ilmakehän hiukkaset aiheuttavat merkittäviä ympäristö- ja terveyshaittoja, joihin vaikuttaa hiukkasten kemiallinen koostumus. Hiukkasten kemiallisesta koostumuksesta voidaan hankkia tietoa hiukkasmittauksilla. Työn tavoitteena oli rakentaa jatkuvatoiminen mittausjärjestelmä, jolla voidaan mitata ilmakehän aerosolihiukkasten ionipitoisuuksia. Mittausjärjestelmä koostuu virtuaali-impaktorista, denuderputkista, PILS-laitteesta ja ionikromatografista. Näyteilmavirtaus kulkee ensin esierottimena toimivan virtuaali-impaktorm lävitse, joka poistaa aerodynaamiselta halkaisijaltaan 1,3 um:a suuremmat hiukkaset ilmavirtauksesta. Näyte, joka sisältää 1,3 um:a pienemmät hiukkaset kulkee virtuaali-impaktorin jälkeen kahden 1 % KOH-liuoksella käsitellyn denuderputken lävitse, joilla poistetaan hiukkasmääritystä häiritsevät happamat kaasut näytevirtauksesta. Denuderputkien jälkeen ilmavirtaus saapuu PILS-laitteeseen, jossa hiukkaset kasvatetaan vesihöyryn avulla aerosolipisaroiksi, törmäytetään keräyslevyyn ja sekoitetaan sen jälkeen sisäistä standardiainetta (NaBr) sisältavään kuljetusliuokseen. Kuljetusliuoksen ja aerosolipisaroiden seoksesta koostuva näyteliuos johdetaan PILS-laitteesta ionikromatografille analysoitavaksi. Mittausjärjestelmään liitetyllä ionikromatografilla voidaan analysoida neljä näytetta tunnissa. Näytteistä määritettävät anionit olivat sulfaatti, nitraatti ja kloridi. PILS-mittausjärjestelmää testattiin keräämällä hiukkasnäytteitä samanaikaisesti PILS-laitteella sekä virtuaali-impaktorilla tai suodatinkeräimellä ja vertaamalla saatuja aerosolihiukkasten sulfaattipitoisuuksia keskenään. Testeissa kerättiin joko VOAG-laitteella tuotettuja ammoniumsulfaattihiukkasia tai laboratorion huoneilmaa. PILS-mittausjärjestelmällä mitatut sulfaattipitoisuudet olivat 2-20 % pienempia kuin suodatinkeraimella mitatut, kun kerättiin keinotekoisesti tuotettuja ammoniumsulfaattihiukkasia. Huoneilmaa kerättäessä PILS-mittausjärjestelmällä saadut pitoisuudet olivat noin 10 % pienempiä kuin suodatinkeräystulokset. Koetulokset osoittivat, että mittausjärjestelmällä saadaan analysoiduksi luotettavasti hiukkasten sulfaattipitoisuudet.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.