46 resultados para Web application
Resumo:
Automation technologies are widely acclaimed to have the potential to significantly reduce energy consumption and energy-related costs in buildings. However, despite the abundance of commercially available technologies, automation in domestic environments keep on meeting commercial failures. The main reason for this is the development process that is used to build the automation applications, which tend to focus more on technical aspects rather than on the needs and limitations of the users. An instance of this problem is the complex and poorly designed home automation front-ends that deter customers from investing in a home automation product. On the other hand, developing a usable and interactive interface is a complicated task for developers due to the multidisciplinary challenges that need to be identified and solved. In this context, the current research work investigates the different design problems associated with developing a home automation interface as well as the existing design solutions that are applied to these problems. The Qualitative Data Analysis approach was used for collecting data from research papers and the open coding process was used to cluster the findings. From the analysis of the data collected, requirements for designing the interface were derived. A home energy management functionality for a Web-based home automation front-end was developed as a proof-of-concept and a user evaluation was used to assess the usability of the interface. The results of the evaluation showed that this holistic approach to designing interfaces improved its usability which increases the chances of its commercial success.
Resumo:
Diplomityö liittyy Accenturen projektiin, jossa kehitettiin asiakkaalle CMS Web-portaali, jonka tarkoitus on tarjota mekanismi tuote- ja kampanjainformaation luontiin ja hallintaan sekä hallita niihin liittyviä budjettiprosesseja yrityksen Intranetissä. Työn tavoitteena on kuvata CMS-portaalin kehitysprosessia ja koota projektin aikana saadut opit ja parannusehdotukset. Tavoitteena on myös esittää ideoita havaittujen ongelmien ehkäisemiseksi tulevissa projekteissa. Portaalin kehitysprojektinsuurimmat haasteet liittyivät tietojärjestelmien kehitysympäristöihin, portaali- ja sisällönhallintapuolen yhdistämiseen sekä tiimikehitykseen. Kun portaaliprojekti tehdään asiakkaan tiloissa, ei täyttä kontrollia kehitysympäristöistä voi saada. Jos kehitysympäristöjen kanssa on ongelmia, niistä on syytä kommunikoida selkeästi ja ammattimaisesti asiakkaan kehitysympäristöistä vastaavalle taholle. Yhteistyö ja hyvät henkilökohtaiset suhteet asiakkaan kanssaovat tärkeitä. Jos portaalin sisällönhallintatarpeet eivät ole erittäin rajoittuneet, on suositeltavaa käyttää erillistä sisällönhallintaohjelmistoa portaalin sisällön hallitsemiseksi. Pienemmillekin projekteille tämä mahdollistaa paremmat laajennusmahdollisuudet. Portaali- ja sisällönhallintapuolenyhdistäminen kannattaa tehdä ohjelmistojen tarjoajien ohjeiden mukaan ja yleisiä menettelytapoja noudattaen. Yleisillä menettelytavoilla tarkoitetaan portaalinja sisällönhallinnan yhdistämisessä sitä, että portaali vastaanottaa sisältöä sisällönhallintajärjestelmältä, mutta kaikki sisällön muokkaustoimenpiteet tehdään sisällönhallintajärjestelmän käyttöliittymän kautta. Jos mukautettuja menettelytapoja on käytettävä, näiden kehittämiselle on varattava niiden vaatima aika. Tällöin Web-palveluiden käyttöä kannattaa harkita, koska Web-palvelut auttavat ohjelmistojen yhdistämisessä etenkin, kun yhdistäminen tehdään mukautetusti. Kun portaali tehdään käyttäen tiimikehitystyötä, on käytettävä myös versionhallintajärjestelmää, jolla estetään päällekkäisten muutosten mahdollisuus. Kehitysprosessin yhdenmukaistamiseksi on erittäin suositeltavaa tehdä yleinen kehitysohjedokumentti. Lisäksi on huolehdittava siitä, että kaikki kehittäjät noudattavat yleisiä kehitysohjeita, jotta yhdenmukaisuuden mukanaan tuomat edut saavutetaan mahdollisimman hyvin.
Resumo:
This thesis presents different aspects of Web Services usage in Symbian OS that is an operating system for handheld devices. The practical part of the work was to develop Symbian OS client application for Web Services. It produced four reusable software components. XML enables platform and programming language independent services. Web Services use XML to create standardized message oriented services that are accessed through HTTP. Web Services are moving towards dynamic B2B interaction. Web Services increases the amount of transferred data, which is not desirable in mobile networks where transfer speed is slower than in the traditional networks. However the modern mobile networks are able to transfer the extra payload with reasonable time. XML processing is not a big problem. Web Services can be accessed from the modern mobile devices and they can cut down the development costs.
Resumo:
Työssä esitellään Web Services -konseptia ja sovellusintegraatiota, sekä toteutetaan toiminnanohjausjärjestelmästä yrityksen asiakkaalle tietoja välittävään palveluun tuki Web Services -arkkitehtuurille. Palvelun tehtävänä on huolehtia yrityksen ja sen liiketoimintakumppaneiden välisestä XML-pohjaisesta viestiliikenteestä. Työn teoriaosassa perehdytään sovellusintegraatioon ja sen osa-alueisiin, Web Services -konseptiin ja -standardeihin sekä sen kanssa kilpaileviin tekniikoihin. Käytännön osuudessa toteutetaan paperiteollisuusyrityksen tilaus- ja toimitustietoja XML:n avulla lähettävään Java-pohjaiseen järjestelmään tuki SOAP-viesteille, sekä WSDL-kuvaukset palveluille. Työssä tutkitaan Web Services -arkkitehtuurin soveltuvuutta ja implementoinnin helppoutta toimintaohjausjärjestelmään. Tuloksena todetaan Web Services -arkkitehtuurin olevan mielenkiintoinen ja monella tapaa integrointia helpottava tekniikka. Arkkitehtuurin standardien puutteiden ja varhaisten versioiden takia tekniikan todetaan kuitenkin olevan monelta osin riittämätön ja epäkypsä toteuttamaan yritysten kriittisten järjestelmien integrointia.
Resumo:
Tänä päivänä tiedon nopea saatavuus ja hyvä hallittavuus ovat liiketoiminnan avainasioita. Tämän takia nykyisiä tietojärjestelmiä pyritään integroimaan. Integraatio asettaa monenlaisia vaatimuksia, jolloin sopivan integraatiomenetelmän ja -teknologian valitsemiseen pitää paneutua huolella. Integraatiototeutuksessa tulisi pyrkiä ns. löyhään sidokseen, jonka avulla voidaan saavuttaa aika-, paikka- ja alustariippumattomuus. Tällöin integraation eri osapuolien väliset oletukset saadaan karsittua minimiin, jonka myötä integraation hallittavuus ja vikasietoisuus paranee. Tässä diplomityössä keskitytään tutkimaan nykyisin teollisuuden käytössä olevien integraatiomenetelmien ja -teknologioiden ominaisuuksia, etuja ja haittoja. Lisäksi työssä tutustutaan Web-palvelutekniikkaan ja toteutetaan asynkroninen tiedonkopiointisovellus ko. teknologian avulla. Web-palvelutekniikka on vielä kehittyvä palvelukeskeinen teknologia, jolla pyritään voittamaan monet aiempia teknologioita vaivanneet ongelmat. Yhtenä teknologian päätavoitteista on luoda löyhä sidos integroitavien osapuolien välille ja mahdollistaa toiminta heterogeenisessa ympäristössä. Teknologiaa vaivaa kuitenkin vielä standardien puute esimerkiksi tietoturva-asioissa sekä päällekkäisten standardien kehitys eri valmistajien toimesta. Jotta teknologia voi yleistyä, on nämä ongelmat pystyttävä ratkaisemaan.
Resumo:
TeliaSoneran älykkään viestintäjärjestelmän kehitysluonnoksella (SME) pilotoidaan prototyyppipalveluita, joiden avulla asiakkaat voivat välittää viestejä matkapuhelimilla sekä tietokoneilla. SME:n peruspalveluita voidaan käyttää SIP-standardin mukaisilla asiakasohjelmilla sekä SME:n omilla WAP- ja WWW-käyttöliittymillä. Käyttäjät voivat nähdä toistensa tilatiedon, muuttaa omaa tilatietoaan sekä lähettää SIP-pikaviestejä, sähköpostiviestejä ja tekstiviestejä. Käyttäjät voivat myös ylläpitää listaa yhteyshenkilöistään, vastaanottaa pikaviestejä ja selata vastaanotettuja viestejä. Diplomityössä käsitellään yleisesti SME-järjestelmän rakennetta ja paneudutaan tutkimaan työssä toteutetun SME:n WWW-asiakasohjelman toteutusta. Diplomityössä käydään läpi projektiin liittyviä standardeja, suosituksia, toteustekniikoita sekä palveluita. Lisäksi tarkastellaan työssä hyödynnettyjä ohjelmointirajapintoja, nykyisiä älypuhelimia sekä niiden Internet-selaimia, jotka rajoittavat WWW-asiakaspalvelun toteutuksessa käytettyjä toteutustekniikkavaihtoehtoja. Lopuksi esitellään toteutettujen ohjelmistojen sisäistä rakennetta ja toimintaa.
Resumo:
Työssä luodaan yleiskuva Web-palvelut -tekniikasta ja toteutetaan sen avulla kahden tietojärjestelmän integrointi. Web-palvelut on uusi toteutustekniikasta riippumaton lähestymistapa tietojärjestelmien integrointiin, organisaatioiden väliseen sähköiseen liiketoimintaan ja sovelluslogiikan hajautukseen. Työssä keskitytään Web-palveluiden alemman tason perusteknologioiden (SOAP, WSDL ja UDDI) tarkasteluun. Työn teoriaosassa määritellään Web-palvelut ja kuvataan Web-palveluiden arkkitehtuuri sekä arkkitehtuurin toteuttavat standardit. Soveltavassa osassa toteutetaan kahden tietojärjestelmän integrointi Web-palveluiden avulla. Web-palveluiden käyttöä ja luontia helpottamaan toteutettiin yleiskäyttöinen komponentti, jota voidaan käyttää myöhemmin muissa vastaavissa projekteissa. Työssä tarkastellaan Web-palveluiden käytettävyyttä organisaation tietojärjestelmien sisäisessä integroinnissa ja sovelluslogiikan hajautuksessa. Tarkastelun tuloksena todetaan, että Web-palvelut on tällä hetkellä keskeneräinen tekniikka ja soveltuu toistaiseksi vain yksinkertaisten ongelmien ratkaisemiseen. Tulevaisuudessa Web-palveluilla on kuitenkin edellytykset yleistyä sekä integroinnin että sovelluslogiikan hajautuksen perustekniikkana.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
Tietojärjestelmien integraatio on nykypäivänä tärkeä osa alue yritysten toiminnassa ja kilpailukyvyn ylläpitämisessä. Palvelukeskeinen arkkitehtuuri ja Web palvelut on uusi joustava tapa tehdä tietojärjestelmien välinen integraatio. Web palveluiden yksi ydinkomponentti on UDDI, Universal Description, Discovery and Integration. UDDI toimii palvelurekisterin tavoin. UDDI määrittää tavan julkaista, löytää ja ottaa käyttöön Web palveluja. Web palveluja voidaan hakea UDDI:sta erilaisin kriteerein, kuten esimerkiksi palvelun sijainnin, yrityksen nimen ja toimialan perusteella. UDDI on myös itsessään Web palvelu, joka perustuu XML kuvauskieleen ja SOAP protokollaan. Työssä paneudutaan tarkemmin UDDI:in. UDDI:ta käsitellään tarkemmin myös teknisesti. Oleellinen osa UDDI:ta on ollut julkaisijoiden ja käyttäjien mielestä tietoturvan puute, joka on rajoittanut huomattavasti UDDI:n käyttöä ja käyttöönottamista. Työssä tarkastellaankin tarkemmin juuri tietoturvaan liittyviä asioita ja ratkaisuja sekä myös UDDI:n merkitystä yrityksille.
Resumo:
This dissertation "Identification of turning points in the research on titanium dioxide production and application" aims at detecting in scientific literatures emerging trends and sudden changes in titanium dioxide production and application. These key changes are then studied to determine its transient patterns and its effect on the research on titanium dioxide production and application The source of information is from bibliographic data which discussed titanium dioxide production and application. These bibliographic data where obtained from ISI Web of Knowledge and then formed into a network of clusters by applying software called Citespace.
Resumo:
Customer specific functionalities are a challenging part of procurement and invoice automation environments. In Basware Enterprise Purchase to Payment product family the customer specific reports are supported only in a basic level without any seamless interface between all EPP products. Also other customer specific functionalities are not supported as there is no customizable interface between the applications and only the most common features are implemented to the products themselves. In this thesis foundations are created for a new web based value added module where it is possible to create seamless customer specific functionalities throughout the whole EPP product family. The work is implemented in a Proof of Concept type of piloting. The system is created in user centered way where the users are able to explain their requests and determine their needs. The result is an excellent foundation for a module that can be developed further.
Resumo:
App Engine on lyhenne englanninkielisistä termeistä application, sovellus ja engine, moottori. Kyseessä on Google, Inc. -konsernin toteuttama kaupallinen palvelu, joka noudattaa pilvimallin tietojenkäsittelyn periaatteita ja mahdollistaa asiakkaan oman sovelluskehityksen. Järjestelmään on mahdollista ohjelmoida itse ideoitu palvelu Internet - verkon välityksellä käytettäväksi, joko yksityisesti tai julkisesti. Kyse on siis hajautetusta palvelinjärjestelmästä, jonka tarjoaa dynaamisesti kuormitukseen sopeutuvan sovellusalustan, jossa asiakas ei vuokraa virtuaalikoneita. Myös järjestelmän tarjoama tallennuskapasiteetti on saatavilla joustavasti. Itse kandidaatintyössä syvennytään yksityiskohtaisemmin sovelluksen toteuttamiseen palvelussa, rajoitteisiin ja soveltuvuuteen. Alussa käydään läpi pilvikäsite, joista monilla tietokoneiden käyttäjillä on epäselvä käsitys. Erilaisia kokonaisuuksia voidaan luoda erittäin monella tavalla, joista rajaamme käsittelyn kohteeksi toteuttamiskelpoiset yleiset ratkaisut.
Resumo:
The objective of this thesis was to identify the effects of different factors on the tension and tension relaxation of wet paper web after high-speed straining. The study was motivated by the plausible connection between wet web mechanical properties and wet web runnability on paper machines shown by previous studies. The mechanical properties of wet paper were examined using a fast tensile test rig with a strain rate of 1000%/s. Most of the tests were carried out with laboratory handsheets, but samples from a pilot paper machine were also used. The tension relaxation of paper was evaluated as the tension remaining after 0.475 s of relaxation (residual tension). The tensile and relaxation properties of wet webs were found to be strongly dependent on the quality and amount of fines. With low fines content, the tensile strength and residual tension of wet paper was mainly determined by the mechanical interactions between fibres at their contact points. As the fines strengthen the mechanical interaction in the network, the fibre properties also become important. Fibre deformations caused by the mechanical treatment of pulp were shown to reduce the mechanical properties of both dry and wet paper. However, the effect was significantly higher for wet paper. An increase of filler content from 10% to 25% greatly reduced the tensile strength of dry paper, but did not significantly impair wet web tensile strength or residual tension. Increased filler content in wet web was shown to increase the dryness of the wet web after the press section, which partly compensates for the reduction of fibrous material in the web. It is also presumable that fillers increase entanglement friction between fibres, which is beneficial for wet web strength. Different contaminants present in white water during sheet formation resulted in lowered surface tension and increased dryness after wet pressing. The addition of different contaminants reduced the tensile strength of the dry paper. The reduction of dry paper tensile strength could not be explained by the reduced surface tension, but rather on the tendency of different contaminants to interfere with the inter-fibre bonding. Additionally, wet web strength was not affected by the changes in the surface tension of white water or possible changes in the hydrophilicity of fibres caused by the addition of different contaminants. The spraying of different polymers on wet paper before wet pressing had a significant effect on both dry and wet web tensile strength, whereas wet web elastic modulus and residual tension were basically not affected. We suggest that the increase of dry and wet paper strength could be affected by the molecular level interactions between these chemicals and fibres. The most significant increases in dry and wet paper strength were achieved with a dual application of anionic and cationic polymers. Furthermore, selectively adding papermaking chemicals to different fibre fractions (as opposed to adding chemicals to the whole pulp) improved the wet web mechanical properties and the drainage of the pulp suspension.
Resumo:
The current research emphasizes on various questions raised and deliberated upon by different entrepreneurs. It provides a valuable contribution to comprehend the importance of social media and ICT-applications. Furthermore, it demonstrates how to support and implement the management consulting and business coaching start-ups with the help of social media and ICT-tools. The thesis presents a literary review from different information systems science, SME and e-business journals, web articles, as well as, survey analysis reports on social media applications. The methodology incorporated into a qualitative research method in which social anthropological approaches were used to oversee the case study activities in order to collect data. The collaborative social research approach was used to shelter the action research method. The research discovered that new business start-ups, as well as small businesses do not use social media and ICT-tools, unlike most of the large corporations use. At present, the current open-source ICT-technologies and social media applications are equally available for new and small businesses as they are available for larger companies. Successful implementation of social media and ICT-applications can easily enhance start-up performance and overcome business hassles. The thesis sheds some light on effective and innovative implementation of social media and ICT-applications for new business risk takers and small business birds. Key words
Resumo:
The recent emergence of a new generation of mobile application marketplaces has changed the business in the mobile ecosystems. The marketplaces have gathered over a million applications by hundreds of thousands of application developers and publishers. Thus, software ecosystems—consisting of developers, consumers and the orchestrator—have emerged as a part of the mobile ecosystem. This dissertation addresses the new challenges faced by mobile application developers in the new ecosystems through empirical methods. By using the theories of two-sided markets and business ecosystems as the basis, the thesis assesses monetization and value creation in the market as well as the impact of electronic Word-of-Mouth (eWOM) and developer multihoming— i. e. contributing for more than one platform—in the ecosystems. The data for the study was collected with web crawling from the three biggest marketplaces: Apple App Store, Google Play and Windows Phone Store. The dissertation consists of six individual articles. The results of the studies show a gap in monetization among the studied applications, while a majority of applications are produced by small or micro-enterprises. The study finds only weak support for the impact of eWOM on the sales of an application in the studied ecosystem. Finally, the study reveals a clear difference in the multi-homing rates between the top application developers and the rest. This has, as discussed in the thesis, an impact on the future market analyses—it seems that the smart device market can sustain several parallel application marketplaces.