8 resultados para Sito Web E-commerce Magento HTML5 CSS3

em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tämän tutkimuksen tavoitteena oli tutkia langattomien internet palveluiden arvoverkkoa ja liiketoimintamalleja. Tutkimus oli luonteeltaan kvalitatiivinen ja siinä käytettiin strategiana konstruktiivista case-tutkimusta. Esimerkkipalveluna oli Treasure Hunters matkapuhelinpeli. Tutkimus muodostui teoreettisesta ja empiirisestä osasta. Teoriaosassa liitettiin innovaatio, liiketoimintamallit ja arvoverkko käsitteellisesti toisiinsa, sekä luotiin perusta liiketoimintamallien kehittämiselle. Empiirisessä osassa keskityttiin ensin liiketoimintamallien luomiseen kehitettyjen innovaatioiden pohjalta. Lopuksi pyrittiin määrittämään arvoverkko palvelun toteuttamiseksi. Tutkimusmenetelminä käytettiin innovaatiosessiota, haastatteluja ja lomakekyselyä. Tulosten pohjalta muodostettiin useita liiketoimintakonsepteja sekä kuvaus arvoverkon perusmallista langattomille peleille. Loppupäätelmänä todettiin että langattomat palvelut vaativat toteutuakseen useista toimijoista koostuvan arvoverkon.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tämän työn tarkoituksena on käytännöllisen suositusjärjestelmäratkaisun kehittäminen verkkokauppaympäristöön olemassaolevaa teoriatietoa käyttäen. Työn ensimmäisessä osiossa tarkastellaan ensin tapoja lähdetiedon keräämiseksi järjestelmää varten. Tämän jälkeen käydään läpi eri menetelmiä suosituksen toteuttamiseksi. Lisäksi tutustutaan yleisiin ongelmiin eri menetelmien kanssa. Seuraavaksi tutkitaan miten järjestelmän käyttämään suositustietoa voidaan ryhmitellä. Tämänjälkeen arvioidaan esitettyjä menetelmiä yleisesti tunnettujen kriteerien perusteella. Suositusjärjestelmän toteutustyö on kuvattuna työn toisessa osiossa. Toteutettu ohjelmisto on asennettu kahteen erilliseen toimintaympäristöön.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tyyliohjeet kehitettiin erottamaan dokumentin rakenteen ja esitystavan kuvaus toisistaan. CSS, Cascading Style Sheets, on erityisesti www-sivuja varten kehitetty merkintäjärjestelmä tyyliohjeita varten. 20 vuotta jatkunut tiivis kehitys on nostanut esiin useita ongelmia, eikä edes nykyinen suositus vastaa täysin sitä, mitä selaimet käytännössä tukevat. CSS3 on World Wide Web Consortiumin tuorein versio CSS-määritelmästä, joka on edelleen työn alla. Tässä tutkielmassa tarkastellaan CSS:n keinoja tekstin muotoilussa. Lisäksi tutkitaan selainten eroavaisuuksia ja ominaisuuksien selaintukea. Aluksi selvitetään CSS:n historia, tarkoitus ja mahdollisuudet. Tämän jälkeen käsitellään kielen perusteet ja miten sitä voidaan käyttää tekstin esityksen yhteydessä www-sivuilla. Tutkielmassa on valittu tarkemman tutkimuksen kohteeksi CSS3 ja sen tarjoamat uudet mahdollisuudet tekstin muotoilussa. Yleiskuvan jälkeen vertaillaan suurimpien selainten tukea uusille ominaisuuksille käytännössä. Lopuksi pohditaan mihin suuntaan kehitys on menossa. Tekstin muotoilussa CSS on varsin monipuolinen, ja CSS3 lisää typografisia käsitteitä ja välineitä huomattavasti. Eri selaimet ja selainten eri versiot tukevat CSS:n ominaisuuksia ja rakenteita kuitenkin hyvin vaihtelevasti. Tilanne elää jatkuvasti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Selainpohjaiset sovellukset ovat yleistyneet viimeisen kymmenen vuoden aikana. Samanaikaisesti ympäristö, jossa ihmiset käyttävät sovelluksia, on muuttunut. Nykyään sovelluksia käytetään yhä enenevissä määrin myös mobiililaitteilla, joissa verkkoyhteyden luotettavuus on huomattavasti heikompi kuin työpöytäympäristössä. Verkkoyhteyden toiminta on ehdoton edellytys web- sovelluksen toiminnalle. Kun verkkoyhteyttä ei ole, sovellusta ei useimmiten voi käyttää. Tilanne on käyttäjän kannalta sama myös, jos verkkoyhteyden laatu on hyvin heikko. Tämä uusi käyttöympäristö asettaa web-sovelluksen saavutettavuudelle haasteen, johon sovelluskehittäjien tulisi pystyä vastaamaan uusien teknologioiden avulla ja mahdollisesti sovelluksen arkkitehtuuria muuttamalla. Johdantona aiheeseen kerrotaan mitä hyötyjä offline-tilan tukemisesta on. Selainpohjaiset sovellukset kilpailevat jossain määrin mobiilialustojen natiivisovellusten kanssa. Web-sovelluksia on verrattu natiivisovelluksiin niiltä osin miten ne toimivat offline-tilassa. Pohjustuksena offline-tilan mahdollistavien teknologioiden arvioinnille esitellään Web-sovelluksen arkkitehtuuri yleisellä tasolla. Tässä tutkielmassa on esitelty muutamia offline-tilan asettamia vaatimuksia sovellukselle. Sovelluksen on kyettävä tunnistamaan, onko laitteella internet-yhteyttä. Yhteyden tilan tarkastukseen esitellään muutama vaihtoehto. Käyttäjän luoma tieto on myös tallennettava paikallisesti. Kun käyttäjä luo uutta sisältöä, se pitää tallentaa väliaikaisesti tai pysyvästi selaimeen. Ainakin osa sovelluksessa käsiteltävästä tiedosta pitäisi olla koko ajan saatavilla, käyttäjän internet-yhteyden tilasta riippumatta. Tähän tarkoitukseen selaimissa on nykyään käytettävissä muutamia erityyppisiä tietovarastoja. Kun selain on online-tilassa, sovelluksen tarvitsemat resurssit on tallennettava offline-tilaa varten. Tähän tarkoitukseen on luotu kaksi eri teknologiaa, HTML5 Application cache ja Service worker. Niiden avulla voi toteuttaa selaimen sisäisen välipalvelimen, joka vastaa sovelluksen tekemiin verkkopyyntöihin. Tutkielmassa esitellään näiden teknologioiden toimintaa teknisten määrittelydokumenttien ja verkkoartikkelien pohjalta. Mainittuja teknologoita vertaillaan keskenään toiminnallisten vaatimusten pohjalta. Tutkimuksen perusteella voidaan päätellä, että esitellyillä teknologioilla voidaan toteuttaa offline-tuki web-sovellukseen. Service worker osoittautuu paremmaksi vaihtoehdoksi kuin Application cache toiminnallisuudeltaan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

HTML5-tekniikka sekä Javascript tuen laajuus selaimissa vaihtelee. Tässä työssä kyseisiä tekniikoita tutkitaan ja selvitetään niiden toimivuus keräilykorttipelin tarvittavien ominaisuuksien osalta. Tuet kartoitetaan viiden yleisimmän selaimen osalta. HTML5 tukee WebSocket-ominaisuutta, mutta kaikki selaimet eivät tue ominaisuutta tai se on poistettu käytöstä. Työssä etsitään tiedonsiirtotekniikan korvaaja, jota testataan ja verrattaan yleisesti käytettäviin tekniikoihin. Socket.io oli nopea tekniikka ja viisi yleisintä selainta tuki kyseistä tekniikkaa. Tämän vuoksi Socket.io-tekniikka soveltuu keräilykorttipeliin hyvin. Työssä tutkitaan keräilykorttipeliin liittyviä ongelmia sekä ratkaistaan ilmenneet ongelmat. Keräilykorttipelissä kyseisiä ongelmia ilmeni hyvin vähän. HTML5 animaatio tutkitaan että se on optimoitu hyvin, jotta käyttäjälle tulee miellyttävä peli kokemus. Keräilykorttipeliin lisäksi tehdään käytännön toteutuksena pakkaeditorin prototyyppi, jossa käytetään drag&drop-tekniikkaa. Tämän vuoksi myös drag&drop-tekniikan tuki on selainten osalta kartoitettu myös työssä, sekä testattu käytännön toteutuksena prototyypissä. Prototyypin tarkoitus on kartoittaa mahdolliset tulevat ongelmat sekä auttaa varsinaisen pakkaeditorin tuotantoversiossa.