949 resultados para Web application


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Creació d'una solució de monitorització d'experiència d'usuari en entorns web amb Selenium, en J2EE.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis presents different aspects of Web Services usage in Symbian OS that is an operating system for handheld devices. The practical part of the work was to develop Symbian OS client application for Web Services. It produced four reusable software components. XML enables platform and programming language independent services. Web Services use XML to create standardized message oriented services that are accessed through HTTP. Web Services are moving towards dynamic B2B interaction. Web Services increases the amount of transferred data, which is not desirable in mobile networks where transfer speed is slower than in the traditional networks. However the modern mobile networks are able to transfer the extra payload with reasonable time. XML processing is not a big problem. Web Services can be accessed from the modern mobile devices and they can cut down the development costs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työssä esitellään Web Services -konseptia ja sovellusintegraatiota, sekä toteutetaan toiminnanohjausjärjestelmästä yrityksen asiakkaalle tietoja välittävään palveluun tuki Web Services -arkkitehtuurille. Palvelun tehtävänä on huolehtia yrityksen ja sen liiketoimintakumppaneiden välisestä XML-pohjaisesta viestiliikenteestä. Työn teoriaosassa perehdytään sovellusintegraatioon ja sen osa-alueisiin, Web Services -konseptiin ja -standardeihin sekä sen kanssa kilpaileviin tekniikoihin. Käytännön osuudessa toteutetaan paperiteollisuusyrityksen tilaus- ja toimitustietoja XML:n avulla lähettävään Java-pohjaiseen järjestelmään tuki SOAP-viesteille, sekä WSDL-kuvaukset palveluille. Työssä tutkitaan Web Services -arkkitehtuurin soveltuvuutta ja implementoinnin helppoutta toimintaohjausjärjestelmään. Tuloksena todetaan Web Services -arkkitehtuurin olevan mielenkiintoinen ja monella tapaa integrointia helpottava tekniikka. Arkkitehtuurin standardien puutteiden ja varhaisten versioiden takia tekniikan todetaan kuitenkin olevan monelta osin riittämätön ja epäkypsä toteuttamaan yritysten kriittisten järjestelmien integrointia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tänä päivänä tiedon nopea saatavuus ja hyvä hallittavuus ovat liiketoiminnan avainasioita. Tämän takia nykyisiä tietojärjestelmiä pyritään integroimaan. Integraatio asettaa monenlaisia vaatimuksia, jolloin sopivan integraatiomenetelmän ja -teknologian valitsemiseen pitää paneutua huolella. Integraatiototeutuksessa tulisi pyrkiä ns. löyhään sidokseen, jonka avulla voidaan saavuttaa aika-, paikka- ja alustariippumattomuus. Tällöin integraation eri osapuolien väliset oletukset saadaan karsittua minimiin, jonka myötä integraation hallittavuus ja vikasietoisuus paranee. Tässä diplomityössä keskitytään tutkimaan nykyisin teollisuuden käytössä olevien integraatiomenetelmien ja -teknologioiden ominaisuuksia, etuja ja haittoja. Lisäksi työssä tutustutaan Web-palvelutekniikkaan ja toteutetaan asynkroninen tiedonkopiointisovellus ko. teknologian avulla. Web-palvelutekniikka on vielä kehittyvä palvelukeskeinen teknologia, jolla pyritään voittamaan monet aiempia teknologioita vaivanneet ongelmat. Yhtenä teknologian päätavoitteista on luoda löyhä sidos integroitavien osapuolien välille ja mahdollistaa toiminta heterogeenisessa ympäristössä. Teknologiaa vaivaa kuitenkin vielä standardien puute esimerkiksi tietoturva-asioissa sekä päällekkäisten standardien kehitys eri valmistajien toimesta. Jotta teknologia voi yleistyä, on nämä ongelmat pystyttävä ratkaisemaan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TeliaSoneran älykkään viestintäjärjestelmän kehitysluonnoksella (SME) pilotoidaan prototyyppipalveluita, joiden avulla asiakkaat voivat välittää viestejä matkapuhelimilla sekä tietokoneilla. SME:n peruspalveluita voidaan käyttää SIP-standardin mukaisilla asiakasohjelmilla sekä SME:n omilla WAP- ja WWW-käyttöliittymillä. Käyttäjät voivat nähdä toistensa tilatiedon, muuttaa omaa tilatietoaan sekä lähettää SIP-pikaviestejä, sähköpostiviestejä ja tekstiviestejä. Käyttäjät voivat myös ylläpitää listaa yhteyshenkilöistään, vastaanottaa pikaviestejä ja selata vastaanotettuja viestejä. Diplomityössä käsitellään yleisesti SME-järjestelmän rakennetta ja paneudutaan tutkimaan työssä toteutetun SME:n WWW-asiakasohjelman toteutusta. Diplomityössä käydään läpi projektiin liittyviä standardeja, suosituksia, toteustekniikoita sekä palveluita. Lisäksi tarkastellaan työssä hyödynnettyjä ohjelmointirajapintoja, nykyisiä älypuhelimia sekä niiden Internet-selaimia, jotka rajoittavat WWW-asiakaspalvelun toteutuksessa käytettyjä toteutustekniikkavaihtoehtoja. Lopuksi esitellään toteutettujen ohjelmistojen sisäistä rakennetta ja toimintaa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työssä luodaan yleiskuva Web-palvelut -tekniikasta ja toteutetaan sen avulla kahden tietojärjestelmän integrointi. Web-palvelut on uusi toteutustekniikasta riippumaton lähestymistapa tietojärjestelmien integrointiin, organisaatioiden väliseen sähköiseen liiketoimintaan ja sovelluslogiikan hajautukseen. Työssä keskitytään Web-palveluiden alemman tason perusteknologioiden (SOAP, WSDL ja UDDI) tarkasteluun. Työn teoriaosassa määritellään Web-palvelut ja kuvataan Web-palveluiden arkkitehtuuri sekä arkkitehtuurin toteuttavat standardit. Soveltavassa osassa toteutetaan kahden tietojärjestelmän integrointi Web-palveluiden avulla. Web-palveluiden käyttöä ja luontia helpottamaan toteutettiin yleiskäyttöinen komponentti, jota voidaan käyttää myöhemmin muissa vastaavissa projekteissa. Työssä tarkastellaan Web-palveluiden käytettävyyttä organisaation tietojärjestelmien sisäisessä integroinnissa ja sovelluslogiikan hajautuksessa. Tarkastelun tuloksena todetaan, että Web-palvelut on tällä hetkellä keskeneräinen tekniikka ja soveltuu toistaiseksi vain yksinkertaisten ongelmien ratkaisemiseen. Tulevaisuudessa Web-palveluilla on kuitenkin edellytykset yleistyä sekä integroinnin että sovelluslogiikan hajautuksen perustekniikkana.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El diseño de un modelo de aplicación web institucional universitaria con categorías, propiedades y fases evolutivas específicas ejerció como unidad de medida para la observación de 64 sitios web de facultades de comunicación de Iberoamérica. Finalmente, 10 sitios han sido escogidos para su análisis detallado, bajo las pautas del modelo diseñado. Los resultados señalan que menos de una decena de sitios web están en condiciones de considerarse productos eficientes de comunicación y gestión.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El propòsit del projecte és realitzar una aplicació web amb un gestor de continguts (Joomla!) per gestionar la relació amb els clients d'una empresa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents the current state and development of a prototype web-GIS (Geographic Information System) decision support platform intended for application in natural hazards and risk management, mainly for floods and landslides. This web platform uses open-source geospatial software and technologies, particularly the Boundless (formerly OpenGeo) framework and its client side software development kit (SDK). The main purpose of the platform is to assist the experts and stakeholders in the decision-making process for evaluation and selection of different risk management strategies through an interactive participation approach, integrating web-GIS interface with decision support tool based on a compromise programming approach. The access rights and functionality of the platform are varied depending on the roles and responsibilities of stakeholders in managing the risk. The application of the prototype platform is demonstrated based on an example case study site: Malborghetto Valbruna municipality of North-Eastern Italy where flash floods and landslides are frequent with major events having occurred in 2003. The preliminary feedback collected from the stakeholders in the region is discussed to understand the perspectives of stakeholders on the proposed prototype platform.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La solució principal que es dóna en aquest projecte és el desenvolupament d'una aplicació web que permeti a l'usuari poder gestionar les categories i categoritzar les converses d'un xat, on totes les converses quedaran registrades i categoritzades per poder fer un anàlisi posterior.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This paper presents a prototype of an interactive web-GIS tool for risk analysis of natural hazards, in particular for floods and landslides, based on open-source geospatial software and technologies. The aim of the presented tool is to assist the experts (risk managers) in analysing the impacts and consequences of a certain hazard event in a considered region, providing an essential input to the decision-making process in the selection of risk management strategies by responsible authorities and decision makers. This tool is based on the Boundless (OpenGeo Suite) framework and its client-side environment for prototype development, and it is one of the main modules of a web-based collaborative decision support platform in risk management. Within this platform, the users can import necessary maps and information to analyse areas at risk. Based on provided information and parameters, loss scenarios (amount of damages and number of fatalities) of a hazard event are generated on the fly and visualized interactively within the web-GIS interface of the platform. The annualized risk is calculated based on the combination of resultant loss scenarios with different return periods of the hazard event. The application of this developed prototype is demonstrated using a regional data set from one of the case study sites, Fella River of northeastern Italy, of the Marie Curie ITN CHANGES project.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Collsaplana Motor SL, és un taller mecànic situat a Vilablareix, al costat de Girona. El taller, a part de fer tot tipus de reparacions mecàniques, està especialitzat en la reparació de caixes de canvis automàtiques i manuals, vehicles clàssics, competició. Els clients són particulars, empreses o altres tallers mecànics, normalment de la província.Una aplicació per aquest negoci ha de ser senzilla i pràctica, per a què qualssevol mecànic, sense gaires coneixements d'informàtica, la pugui utilitzar i portar una bona gestió del taller. L’objectiu del projecte és desenvolupar l’anàlisi, disseny i implementació d’una aplicació per a la gestió de l’empresa. L’aplicació té com a propòsit gestionar els usuaris de l'aplicació, clients, vehicles, recanvis, ordres de reparació, pressupostos, albarans i factures

Relevância:

30.00% 30.00%

Publicador:

Resumo:

In this paper, we reflect about the broadening of the field of application of CRM from the business domain to a wider context of relationships in which the inclusion of non-profit making organizations seems natural. In particular, we focus on analyzing the suitability of adopting CRM processes by universities and higher educational institutions dedicated to e-learning. This is an issue that, in our opinion, has much potential but has received little attention in research so far.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The paper presents the results of the piloting or pilot test in a virtual classroom. This e-portfolio was carried out in the 2005-2006 academic year, with students of the Doctorate in Information Society, at the Open University of Catalonia. The electronic portfolio is a strategy for competence based assessment. This experience shows the types of e-portfolios, where students show their work without interactions, and apply the competence-based learning theories in an interactive portfolio system. The real process of learning is developed in the competency based system, the portfolio not only is a basic bio document, has become a real space for learning with competence model. The paper brings out new ideas and possibilities: the competence-based learning promotes closer relationships between universities and companies and redesigns the pedagogic act.