46 resultados para Web-Centric Expert System


Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tämän diplomityön tavoitteena oli tutkia liiketoiminnallisessaympäristössä olevia Web-palvelu -teknologialla toteutettujen integraatioprojektien tietoturvaa. Web-palvelut ovat SOAP-muotoisia HTTP-protokollalla välitettäviä viestejä, joilla voidaan välittää tietoa tietojärjestelmästä toiseen tai suorittaa liiketoiminnan tapahtumia. Työssä käsiteltiin erilaisia tietoturvallisuuteen vaikuttavia osa-alueita ja niiden sopivuutta Web-palveluihin. Tietoturvaa on käsitelty enimmäkseen liiketoiminnallisesta näkökulmasta. Työssä havaittiin tietoturvan koostuvan monesta osa-alueesta. Osa-alueista muodostuutietoturvallinen kokonaisuus, jossa on mukana valitut teknologiat, haluttu tietoturvallisuuden taso, integroitavat tietojärjestelmät sekä näiden yhteenliittäminen ja prosessit. Jokaisen integraatioprojektin ollessa oma kokonaisuutensa, on yleispätevän tietoturvan rakentaminen vaikeaa. Tämän seurauksena tietoturvaa tulee käsitellä jatkuvasti integraatioprojektin eri vaiheissa tietoturvan vaatimusten mukaan.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diplomityön tavoitteena oli tutkia miten ilman turbulenttisuus vaikuttaa tasaisesti liikkuvan rainan tilaan. Yhtenä sovelluskohteena teollisuudessa voidaan mainita esimerkiksi leiju-kuivain. Tiedetään, että konenopeuksien kasvu ja siitä johtuva ilmavirran nopeuden kasvu aiheuttaa voimavaikutuksia rainaan ja voi aiheuttaa lepatusta. Lepatus johtaa dynaamiseen epästabiilisuuteen, joka voidaan havaita, kun lineaarinen systeemi tulee epävakaaksi ja joh-taa epälineaariseen, rajoitettuun värähtelyyn. Lepatus huonontaa tuotteiden laatua ja voi johtaa ratakatkoihin. Työssä on esitetty tietoa ilman ja rainan vuorovaikutuksesta, jota hyödyntämällä voidaan kehittää yksinkertaistettu malli, jonka avulla liikkuvaa rainaa voidaan simuloida kuivaimes-sa. Kaasufaasin virtausyhtälöt on ratkaistu eri turbulenttimalleja käyttäen. Myös viskoelas-tisen rainan muodonmuutosta on tarkasteltu. Koska rainalle ei ole kirjallisuudesta saatavilla tarkkoja fysikaalisia ja mekaanisia arvoja, näitä ominaisuuksia testattiin eri arvoilla, jotta rainan käyttäytymistä jännityksen alaisena voidaan tarkastella. Näiden ominaisuuksien tun-teminen on ensiarvoisen tärkeää määritettäessä rainan aeroviskoelastista käyttäytymistä. Virtaussimulointi on kallista ja aikaa vievää. Tämä tarkoittaa uusien tutkimusmenetelmien omaksumista. Tässä työssä vaihtoehtoisena lähestymistapana on esitetty yksinkertaistettu malli, joka sisältää ilman ja rainan vuorovaikutusta kuvaavat ominaisuudet. Mallin avulla saadaan tietoa epälineaarisuuden ja turbulenssin vaikutuksesta sekä monimutkaisesta yh-teydestä stabiilisuuden ja ulkoisesti aikaansaadun värähtelyn sekä itse aiheutetun värähtelyn välillä. Työn lopussa on esitetty havainnollinen esimerkki, jolla voidaan kuvata olosuhteita, jossa rainan tasainen liike muuttuu epävakaaksi. Kun turbulenttisuudesta johtuva painevaih-telu ylittää tietyn rajan, rainan värähtely kasvaa muuttuen satunnaisesta järjestäytyneeksi. Saaduttulokset osoittavat, että turbulenttisuudella on suuri vaikutus eikä sitä voi jättää huomioimatta. Myös rainan viskoelastiset ominaisuudet tulee huomioida, jotta rainan käyt-täytymistä voidaan kuvata tarkasti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

This thesis presents different aspects of Web Services usage in Symbian OS that is an operating system for handheld devices. The practical part of the work was to develop Symbian OS client application for Web Services. It produced four reusable software components. XML enables platform and programming language independent services. Web Services use XML to create standardized message oriented services that are accessed through HTTP. Web Services are moving towards dynamic B2B interaction. Web Services increases the amount of transferred data, which is not desirable in mobile networks where transfer speed is slower than in the traditional networks. However the modern mobile networks are able to transfer the extra payload with reasonable time. XML processing is not a big problem. Web Services can be accessed from the modern mobile devices and they can cut down the development costs.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työssä esitellään Web Services -konseptia ja sovellusintegraatiota, sekä toteutetaan toiminnanohjausjärjestelmästä yrityksen asiakkaalle tietoja välittävään palveluun tuki Web Services -arkkitehtuurille. Palvelun tehtävänä on huolehtia yrityksen ja sen liiketoimintakumppaneiden välisestä XML-pohjaisesta viestiliikenteestä. Työn teoriaosassa perehdytään sovellusintegraatioon ja sen osa-alueisiin, Web Services -konseptiin ja -standardeihin sekä sen kanssa kilpaileviin tekniikoihin. Käytännön osuudessa toteutetaan paperiteollisuusyrityksen tilaus- ja toimitustietoja XML:n avulla lähettävään Java-pohjaiseen järjestelmään tuki SOAP-viesteille, sekä WSDL-kuvaukset palveluille. Työssä tutkitaan Web Services -arkkitehtuurin soveltuvuutta ja implementoinnin helppoutta toimintaohjausjärjestelmään. Tuloksena todetaan Web Services -arkkitehtuurin olevan mielenkiintoinen ja monella tapaa integrointia helpottava tekniikka. Arkkitehtuurin standardien puutteiden ja varhaisten versioiden takia tekniikan todetaan kuitenkin olevan monelta osin riittämätön ja epäkypsä toteuttamaan yritysten kriittisten järjestelmien integrointia.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Diplomityössä on tutkittu sulautetun järjestelmän liittämistä Ethernet-verkkoon sekä TCP/IP-protokollapinoon kuuluvien tavallisimpien protokollien toimintaa. Työn tuloksien perusteella on suunniteltu harjoitustyö, jota voidaan käyttää sähkötekniikan osaston opetuksessa. Työssä hankittiin Atmelin sulautettu Web-serverikortti (EWS) ja STK500-kortti serverin ohjelmointiin. Serverin mukana tuli Internet-yhteyden mahdollistava TCP/IP-pinon lähdekoodi. Työssä selvitettiin TCP/IP:hen kuuluvien protokollien toimintaa teoriassa ja käytännön toteutusta EWS:n avulla. Lähdekoodiin lisättiin ominaisuudet, joiden avulla laite hakee kellonaikatiedot aikapalvelimelta time-protokollaa käyttäen ja lähettää sähköpostia määriteltyyn osoitteeseen sähköpostipalvelimen kautta. Laitetta käytettiin sekä palvelimena että asiakkaana. Työssä perehdyttiin sulautettujen järjestelmien yleisiin ominaisuuksiin ja erilaisiin verkonhallinnan apuohjelmiin. Työssä tutkittiin palvelin- ja asiakaskoneen välillä Ethernetissä kulkevaa verkkoliikennettä. Työssä minimoitiin protokollatiedostojen viemä tila prosessorin muistista ja tutkittiin Internet-yhteyden kuluttamien kellojaksojen määrää. Työssä selvitettiin tietoturva-kysymysten merkitystä ja toteutusta sulautetuissa järjestelmissä.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

TeliaSoneran älykkään viestintäjärjestelmän kehitysluonnoksella (SME) pilotoidaan prototyyppipalveluita, joiden avulla asiakkaat voivat välittää viestejä matkapuhelimilla sekä tietokoneilla. SME:n peruspalveluita voidaan käyttää SIP-standardin mukaisilla asiakasohjelmilla sekä SME:n omilla WAP- ja WWW-käyttöliittymillä. Käyttäjät voivat nähdä toistensa tilatiedon, muuttaa omaa tilatietoaan sekä lähettää SIP-pikaviestejä, sähköpostiviestejä ja tekstiviestejä. Käyttäjät voivat myös ylläpitää listaa yhteyshenkilöistään, vastaanottaa pikaviestejä ja selata vastaanotettuja viestejä. Diplomityössä käsitellään yleisesti SME-järjestelmän rakennetta ja paneudutaan tutkimaan työssä toteutetun SME:n WWW-asiakasohjelman toteutusta. Diplomityössä käydään läpi projektiin liittyviä standardeja, suosituksia, toteustekniikoita sekä palveluita. Lisäksi tarkastellaan työssä hyödynnettyjä ohjelmointirajapintoja, nykyisiä älypuhelimia sekä niiden Internet-selaimia, jotka rajoittavat WWW-asiakaspalvelun toteutuksessa käytettyjä toteutustekniikkavaihtoehtoja. Lopuksi esitellään toteutettujen ohjelmistojen sisäistä rakennetta ja toimintaa.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Työssä tutkittiin tehokasta tietojohtamista globaalin metsäteollisuusyrityksen tutkimus ja kehitys verkostossa. Työn tavoitteena oli rakentaa kuvaus tutkimus ja kehitys sisällön hallintaan kohdeyrityksen käyttämän tietojohtamisohjelmiston avulla. Ensin selvitettiin käsitteitä tietämys ja tietojohtaminen kirjallisuuden avulla. Selvityksen perusteella esitettiin prosessimalli, jolla tietämystä voidaan tehokkaasti hallita yrityksessä. Seuraavaksi analysoitiin tietojohtamisen asettamia vaatimuksia informaatioteknologialle ja informaatioteknologian roolia prosessimallissa. Verkoston vaatimukset tietojohtamista kohtaan selvitettiin haastattelemalla yrityksen avainhenkilöitä. Haastatteluiden perusteella järjestelmän tuli tehokkaasti tukea virtuaalisten projektiryhmien työskentelyä, mahdollistaa tehtaiden välinen tietämyksen jakaminen ja tukea järjestelmään syötetyn sisällön hallintaa. Ensiksi järjestelmän käyttöliittymän rakenne ja salaukset muokattiin vastaamaan verkoston tarpeita. Rakenne tarjoaa työalueen työryhmille ja alueet tehtaiden väliseen tietämyksen jakamiseen. Sisällönhallintaa varten järjestelmään kehitettiin kategoria, profiloitu portaali ja valmiiksi määriteltyjä hakuja. Kehitetty malli tehostaa projektiryhmien työskentelyä, mahdollistaa olemassa olevan tietämyksen hyväksikäytön tehdastasolla sekä helpottaa tutkimus ja kehitys aktiviteettien seurantaa. Toimenpide-ehdotuksina esitetään järjestelmän integrointia tehtaiden operatiivisiin ohjausjärjestelmiin ja ohjelmiston käyttöönottoa tehdastason projektinhallinta työkaluksi.Ehdotusten tavoitteena on varmistaa sekä tehokas tietämyksen jakaminen tehtaiden välillä että tehokas tietojohtaminen tehdastasolla.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Web portaalit tarjoavat ainutlaatuisia apuvälineitä erilaisien sisältöjen luomiseksi, monenlaisia navigointipolkuja, henkilökohtaisia sivuja ja turvapalveluja. Portaali on monimutkainen systeemi, joka sisältää monta yhteistyötä tekevää komponenttia, yleensä toteutuu valmiiksi tehdyillä ongelmistoilla. Tämä tutkimus kansittelee portaalin toteutusta IBM/Tivolin tuotteella. Portaalin komponenttien integraatio on kriittinen koko järjestelmä arkkitehtuurille ja saattaa vaatia lisää ohjelmistokehittelyä. Tutkimuksen ensisijainen tavoite on kehittää räätälöityä komponenttia kahta portaali-alijärjestelmä varten, tilaaja - turvapalvelu. Tutkimuksessa Tivoli Personalized Services Manager (TPSM) ja Tivoli SecureWay Policy Director (PD) on tutkittu. Integraatio sisältää TPSM tietokaunan ja PD User Registry tiedon synkronisointia. Integraatio-ohjelmisto on suunniteltu ja tehty olemassaoloevien alijärjestelmien perusteella.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Taking the maximum advantage of technological innovations and the investment in them is of key importance for businesses. The IT industry offers a wide range of innovative high-technology solutions to manage information processing and distribution. However for end-user businesses to make informed decisions in this area is challenging. The aim of this research is to identify the key differences in principal solutions, and what the selection criteria should be for those involved. Existing methodologies for software development are classified, and some key criteria are described to help IT system developers and users determine what are the most important factors in system selection, development and deployment. Statistical data is researched and analysed, a theoretical basis is developed and reviewed, key issues from case studies are identified and generalized to be presented along with the conclusions in the current study. The results give a good basis for corporate consideration and provide overall support to the key decisions in developing web-based software. The conclusion is that new web developments should be considered the stakeholders as an evolution of existing business systems, but they should then pay particular attention to the new advantages that web-based software offers in terms of standardised interfaces and procedures, universal deployment opportunities, and a range of other benefits the study highlights.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Tämä työ esittelee uuden tarjota paikasta riippuvaa tietoa langattomien tietoverkkojen käyttäjille. Tieto välitetään jokaiselle käyttäjälle tietämättä mitään käyttäjän henkilöllisyydestä. Sovellustason protokollaksi valittiin HTTP, joka mahdollistaa tämän järjestelmän saattaa tietoa perille useimmille käyttäjille, jotka käyttävät hyvinkin erilaisia päätelaitteita. Tämä järjestelmä toimii sieppaavan www-liikenteen välityspalvelimen jatkeena. Erilaisten tietokantojen sisällä on perusteella järjestelmä päättää välitetäänkö tietoa vai ei. Järjestelmä sisältää myös yksinkertaisen ohjelmiston käyttäjien paikantamiseksi yksittäisen tukiaseman tarkkuudella. Vaikka esitetty ratkaisu tähtääkin paikkaan perustuvien mainosten tarjoamiseen, se on helposti muunnettavissa minkä tahansa tyyppisen tiedon välittämiseen käyttäjille.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Today’s commercial web sites are under heavy user load and they are expected to be operational and available at all times. Distributed system architectures have been developed to provide a scalable and failure tolerant high availability platform for these web based services. The focus on this thesis was to specify and implement resilient and scalable locally distributed high availability system architecture for a web based service. Theory part concentrates on the fundamental characteristics of distributed systems and presents common scalable high availability server architectures that are used in web based services. In the practical part of the thesis the implemented new system architecture is explained. Practical part also includes two different test cases that were done to test the system's performance capacity.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

The objective of this thesis is to provide a business model framework that connects customer value to firm resources and explains the change logic of the business model. Strategic supply management and especially dynamic value network management as its scope, the dissertation is based on basic economic theories, transaction cost economics and the resource-based view. The main research question is how the changing customer values should be taken into account when planning business in a networked environment. The main question is divided into questions that form the basic research problems for the separate case studies presented in the five Publications. This research adopts the case study strategy, and the constructive research approach within it. The material consists of data from several Delphi panels and expert workshops, software pilot documents, company financial statements and information on investor relations on the companies’ web sites. The cases used in this study are a mobile multi-player game value network, smart phone and “Skype mobile” services, the business models of AOL, eBay, Google, Amazon and a telecom operator, a virtual city portal business system and a multi-play offering. The main contribution of this dissertation is bridging the gap between firm resources and customer value. This has been done by theorizing the business model concept and connecting it to both the resource-based view and customer value. This thesis contributes to the resource-based view, which deals with customer value and firm resources needed to deliver the value but has a gap in explaining how the customer value changes should be connected to the changes in key resources. This dissertation also provides tools and processes for analyzing the customer value preferences of ICT services, constructing and analyzing business models and business concept innovation and conducting resource analysis.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Web application performance testing is an emerging and important field of software engineering. As web applications become more commonplace and complex, the need for performance testing will only increase. This paper discusses common concepts, practices and tools that lie at the heart of web application performance testing. A pragmatic, hands-on approach is assumed where applicable; real-life examples of test tooling, execution and analysis are presented right next to the underpinning theory. At the client-side, web application performance is primarily driven by the amount of data transmitted over the wire. At the server-side, selection of programming language and platform, implementation complexity and configuration are the primary contributors to web application performance. Web application performance testing is an activity that requires delicate coordination between project stakeholders, developers, system administrators and testers in order to produce reliable and useful results. Proper test definition, execution, reporting and repeatable test results are of utmost importance. Open-source performance analysis tools such as Apache JMeter, Firebug and YSlow can be used to realise effective web application performance tests. A sample case study using these tools is presented in this paper. The sample application was found to perform poorly even under the moderate load incurred by the sample tests.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Research focus of this thesis is to explore options for building systems for business critical web applications. Business criticality here includes requirements for data protection and system availability. The focus is on open source software. Goals are to identify robust technologies and engineering practices to implement such systems. Research methods include experiments made with sample systems built around chosen software packages that represent certain technologies. The main research focused on finding a good method for database data replication, a key functionality for high-availability, database-driven web applications. Research included also finding engineering best practices from books written by administrators of high traffic web applications. Experiment with database replication showed, that block level synchronous replication offered by DRBD replication software offered considerably more robust data protection and high-availability functionality compared to leading open source database product MySQL, and its built-in asynchronous replication. For master-master database setups, block level replication is more recommended way to build high-availability into the system. Based on thesis research, building high-availability web applications is possible using a combination of open source software and engineering best practices for data protection, availability planning and scaling.