33 resultados para ArcGIS API for JavaScript
em Doria (National Library of Finland DSpace Services) - National Library of Finland, Finland
Resumo:
Työssä tutkitaan, kuinka Symbian käyttöjärjestelmälle voidaan tehdä siirrettäviä ohjelmia. Työssä käydään läpi menetelmiä, jotka helpottavat ohjelmistojen siirrettävyyttä uudelle alustalle. Uuteen älypuhelimeen voi tulla monia uusia komponentteja. Laite voi muuttua piiritasolla, käyttöjärjestelmästä voi tulla uusi versio sekä siirrettävästä ohjelmasta voi tulla uusi versio. Kaikki nämä vaikuttavat ohjelman siirrettävyyteen. Työssä tehtiin Java-rajapinnan siirto uudelle alustalle. Prosessin aikana löydettiin tärkeitä tekijöitä, jotka vaikuttavat ohjelmiston siirrettävyyteen. Siirrettävyys sinänsä pitäisi ottaa huomioon ohjelmistoprosessin jokaisessa vaiheessa. Älypuhelimista tulee jatkuvasti uusia versioita. Tämä tekee ohjelmien siirrettävyydestä hyvin tärkeän tekijän ohjelmistojen suunnittelussa. Hyvin suunniteltu ohjelma on helpompi ylläpitää, päivättää ja siirtää myöhemmin.
Resumo:
Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Presentation at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
Poster at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
HTML5-tekniikka sekä Javascript tuen laajuus selaimissa vaihtelee. Tässä työssä kyseisiä tekniikoita tutkitaan ja selvitetään niiden toimivuus keräilykorttipelin tarvittavien ominaisuuksien osalta. Tuet kartoitetaan viiden yleisimmän selaimen osalta. HTML5 tukee WebSocket-ominaisuutta, mutta kaikki selaimet eivät tue ominaisuutta tai se on poistettu käytöstä. Työssä etsitään tiedonsiirtotekniikan korvaaja, jota testataan ja verrattaan yleisesti käytettäviin tekniikoihin. Socket.io oli nopea tekniikka ja viisi yleisintä selainta tuki kyseistä tekniikkaa. Tämän vuoksi Socket.io-tekniikka soveltuu keräilykorttipeliin hyvin. Työssä tutkitaan keräilykorttipeliin liittyviä ongelmia sekä ratkaistaan ilmenneet ongelmat. Keräilykorttipelissä kyseisiä ongelmia ilmeni hyvin vähän. HTML5 animaatio tutkitaan että se on optimoitu hyvin, jotta käyttäjälle tulee miellyttävä peli kokemus. Keräilykorttipeliin lisäksi tehdään käytännön toteutuksena pakkaeditorin prototyyppi, jossa käytetään drag&drop-tekniikkaa. Tämän vuoksi myös drag&drop-tekniikan tuki on selainten osalta kartoitettu myös työssä, sekä testattu käytännön toteutuksena prototyypissä. Prototyypin tarkoitus on kartoittaa mahdolliset tulevat ongelmat sekä auttaa varsinaisen pakkaeditorin tuotantoversiossa.
Resumo:
Automation technologies are widely acclaimed to have the potential to significantly reduce energy consumption and energy-related costs in buildings. However, despite the abundance of commercially available technologies, automation in domestic environments keep on meeting commercial failures. The main reason for this is the development process that is used to build the automation applications, which tend to focus more on technical aspects rather than on the needs and limitations of the users. An instance of this problem is the complex and poorly designed home automation front-ends that deter customers from investing in a home automation product. On the other hand, developing a usable and interactive interface is a complicated task for developers due to the multidisciplinary challenges that need to be identified and solved. In this context, the current research work investigates the different design problems associated with developing a home automation interface as well as the existing design solutions that are applied to these problems. The Qualitative Data Analysis approach was used for collecting data from research papers and the open coding process was used to cluster the findings. From the analysis of the data collected, requirements for designing the interface were derived. A home energy management functionality for a Web-based home automation front-end was developed as a proof-of-concept and a user evaluation was used to assess the usability of the interface. The results of the evaluation showed that this holistic approach to designing interfaces improved its usability which increases the chances of its commercial success.
Resumo:
Tämän insinöörityön tarkoituksena oli kehittää mahdollisimman helposti laajennettava sovelluskehys A4SP Technologies Oy:n käyttöön osana ohjelmointiprojektia, johon liittyy useasta osasta koostuvan mobiilisovelluskokonaisuuden kehittäminen. Tarkoituksena oli saada aikaan sovelluskehys, jota kaikki sovellukset käyttäisivät runkonaan ja joka olisi riittävän monipuolinen, jotta sille voitaisiin perustaa myös mahdolliset tulevat sovellukset. Työssä käydään läpi projektin suunnittelulähtökohtia, lopputuloksena aikaansaatu sovelluskehys siinä käytettyine suunnitelumalleineen sekä käytännön kokemuksia oikeista mobiililaitteista. Erityisesti työhön liittyvät Bluetooth API (JSR 82), Mobile Media API (JSR 135), verkkoyhteydet mobiililaitteista, käyttöliittymän suunnittelu sekä RMS. Lopputuloksena saatiin aikaan määrittelyt täyttävä sovelluskehys, joka soveltuu Bluetoothyhteyttä käyttäviin sovelluksiin joiden käyttöliittymän voidaan katsoa koostuvat erillisistä komponenteista. Kehys tukee sovelluksia, jotka lähettävät dataa käyttäen HTTPprotokollaa sekä sovelluksia joiden tarvitsee lukea ja tallentaa erityyppistä dataa käyttäen RMS:ää. Lisäksi kehys tarjoaa MMAPIn käyttöön pohjautuvan äänentoistoratkaisun.
Resumo:
Web 2.0 viittaa toisen polven rikkaisiin verkkosovelluksiin, jotka lähestyvät käytettävyydeltään työpöydän ohjelmia. AJAX (Asyncrhonous JavaScript and XML) on ryhmä tekniikoita, joilla rakennetaan rikkaita verkkosovelluksia. AJAX on saanut valtavasti huomiota mullistavien ominaisuuksiensa ansiosta ja se on syrjäyttämässä tuttuja malleja verkkoympäristössä. Kaikki puhuvat AJAXista, mutta harva todella tietää mistä on kyse. Tämän opinnäytteen tavoitteena on selvittää mistä AJAXissa oikein on kyse, miten se on mullistanut verkkosovelluksia ja mihin suuntaan se on menossa tulevaisuudessa. Tutkimuksen kohteena olivat myös AJAXin kilpailijat, joita verrattiin tähän teoreettisella tasolla. Alan kirjallisuuteen nojautuvassa teknisessä selvityksessä esiteltiin AJAX-tekniikat ja niiden toimintatavat AJAX-sovelluksissa. Median esille tuomien AJAXin uraauurtavien hyvien ominaisuuksien lisäksi käytiin tutkimuksessa läpi kriittisesti myös sen heikkoja puolia. SWOT-analyysissä selvisi, että AJAXin vahvuuksia ovat nopeus ja asynkronisuus ja heikkouksista suurimpia olivat tietoturva-aukot ja navigointimallin muutoksen mukanaan tuomat ongelmat. Analyysin tuloksena AJAXin mahdollisuuksiksi nähtiin laajempi levinneisyys ja kehittyminen sekä näiden mukanaan tuomat hyödyt. Uhkina nähtiin kilpailijat ja AJAXin suosion lasku. Tuloksissa selvisi myös, että kilpailijat esiintyvät kuitenkin AJAXin kanssa yhteiskäytössä, minkä vuoksi niiden vertailu kilpailijoina on hankalaa. Kilpailu on tärkeää, sillä se lisää tekniikoiden kehittymistä ja standardien muodostumista ja johtaa entistä parempiin rikkaisiin verkkosovelluksiin. Heikkouksistaan huolimatta AJAX on käyttöominaisuuksiltaan varteenotettava malli ja säilyttää varmasti paikkansa muiden WWW-sovellustekniikoiden joukossa.
Resumo:
Nykyaikaiset Java-teknologiaa sisältävät matkapuhelimet kehittyvät vauhdikkaasti prosessoritehon, muistin määrän sekä uusien käyttöjärjestelmäversioiden tarjoamien ominaisuuksien myötä. Laitteiden näyttöjen koko tulee pysymään pienenä,mutta silti moninaista multimediasisältöä äänen, videon ja kuvan osilta voidaanhuomattavasti parantaa JSR 234:n eli kehittyneen multimedialaajennuksen avulla.Erityisesti edistyneet ääniominaisuudet ovat tervetullut lisä, sillä viime aikojen kehitys matkapuhelimissa on saanut aikaan niiden muuntumisen myös kannettavaksi musiikkisoittimiksi. Diplomityössä JSR 234 -spesifikaation tietty osa kehitettiin ympäristössä, joka koostui Series 60 -ohjelmistoalustankolmannesta versiosta sekä Symbian OS v9.1 käyttöjärjestelmästä. Tuloksena syntynyt Java-rajapinta tarjoaa sovelluskehittäjille yksinkertaisemman lähestymistavan Symbianin efektirajapintaan piilottaen samalla alla olevan käyttöjärjestelmänmonimutkaisuuden. Toteutuksen täytyy olla läpikotaisin testattu, jotta voidaan varmentua sen noudattavan tarkkaan JSR 234 -spesifikaatiota. Työssä on esitelty useita eri testausmenetelmiä tarkoituksena saavuttaa projektissa paras mahdollinen laatu.
Resumo:
This thesis evaluates methods for obtaining high performance in applications running on the mobile Java platform. Based on the evaluated methods, an optimization was done to a Java extension API running on top the Symbian operating system. The API provides location-based services for mobile Java applications. As a part of this thesis, the JNI implementation in Symbian OS was also benchmarked. A benchmarking tool was implemented in the analysis phase in order to implement extensive performance test set. Based on the benchmark results, it was noted that the landmarks implementation of the API was performing very slowly with large amounts of data. The existing implementation proved to be very inconvenient for optimization because the early implementers did not take performance and design issues into consideration. A completely new architecture was implemented for the API in order to provide scalable landmark initialization and data extraction by using lazy initialization methods. Additionally, runtime memory consumption was also an important part of the optimization. The improvement proved to be very efficient based on the measurements after the optimization. Most of the common API use cases performed extremely well compared to the old implementation. Performance optimization is an important quality attribute of any piece of software especially in embedded mobile devices. Typically, projects get into trouble with performance because there are no clear performance targets and knowledge how to achieve them. Well-known guidelines and performance models help to achieve good overall performance in Java applications and programming interfaces.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Tässä työssä selvitettiin Ajax-tekniikan tilannetta web-sovellusten kehityksessä. Sitä varten kehitettiin demosovellus, jonka avulla tekniikoiden käyttökelpoisuutta voitiin arvioida. Samalla työssä on esitelty eri tekniikoita, jotka liittyvät kiinteästi Ajax-sovellusten toteuttamiseen. Demosovellus tehtiin vapaalla LAMP (Linux, Apache, MySQL and PHP) -alustalla. Työssä on arvioitu Ajax-tekniikan käyttökelpoisuutta ja ongelmia nykyisen webin, web-kehittäjien, käytössä olevien selainten ja käyttäjien kannalta. Lopussa on myös pohdittu hieman webin tulevaisuutta ja Ajaxin osaa siinä.
Resumo:
The use of domain-specific languages (DSLs) has been proposed as an approach to cost-e ectively develop families of software systems in a restricted application domain. Domain-specific languages in combination with the accumulated knowledge and experience of previous implementations, can in turn be used to generate new applications with unique sets of requirements. For this reason, DSLs are considered to be an important approach for software reuse. However, the toolset supporting a particular domain-specific language is also domain-specific and is per definition not reusable. Therefore, creating and maintaining a DSL requires additional resources that could be even larger than the savings associated with using them. As a solution, di erent tool frameworks have been proposed to simplify and reduce the cost of developments of DSLs. Developers of tool support for DSLs need to instantiate, customize or configure the framework for a particular DSL. There are di erent approaches for this. An approach is to use an application programming interface (API) and to extend the basic framework using an imperative programming language. An example of a tools which is based on this approach is Eclipse GEF. Another approach is to configure the framework using declarative languages that are independent of the underlying framework implementation. We believe this second approach can bring important benefits as this brings focus to specifying what should the tool be like instead of writing a program specifying how the tool achieves this functionality. In this thesis we explore this second approach. We use graph transformation as the basic approach to customize a domain-specific modeling (DSM) tool framework. The contributions of this thesis includes a comparison of di erent approaches for defining, representing and interchanging software modeling languages and models and a tool architecture for an open domain-specific modeling framework that e ciently integrates several model transformation components and visual editors. We also present several specific algorithms and tool components for DSM framework. These include an approach for graph query based on region operators and the star operator and an approach for reconciling models and diagrams after executing model transformation programs. We exemplify our approach with two case studies MICAS and EFCO. In these studies we show how our experimental modeling tool framework has been used to define tool environments for domain-specific languages.
Resumo:
The forthcoming media revolution of exchanging paper documents to digital media in construction engineering requires new tools to be developed. The basis of this bachelor’s thesis was to explore the preliminary possibilities of exporting imagery from a Building Information Modelling –software to a mobile phone on a construction yard. This was done by producing a Web Service which uses the design software’s Application Programming Interface to interact with a structures model in order to produce the requested imagery. While mobile phones were found lacking as client devices, because of limited processing power and small displays, the implementation showed that the Tekla Structures API can be used to automatically produce various types of imagery. Web Services can be used to transfer this data to the client. Before further development the needs of the contractor, benefits for the building master and inspector and the full potential of the BIM-software need to be mapped out with surveys.