370 resultados para middleware ginga
Resumo:
Tämä diplomityö kirjoitettiin UPM- Kymmene konsernin UPM Net Services sa/nv osastolle Brysselissä ja Helsingissä. Työn aihe, Data communication in paper sales environment, määriteltiin käsittelemään paperin myyntijärjestelmään liittyviä aiheita. Nykyinen paperin myyntijärjestelmä on käsitelty ensin teoriassa ja aiheeseen kuuluvat ohjelmistotuotteet ja työkaluohjelmistot on esitelty. Parannuksia nykyiseen järjestelmään on pohdittu ohjelmistosuunnittelun, tehokkuuden, tiedon hallinnan, tietoturvallisuuden ja liiketoiminnan näkökulmista. Diplomityön käytännön osuudessa esitellään kaksi ohjelmistoa. Nämä ohjelmistot tehtiin UPM Net Services'lle, jotta saatiin kokemuksia viestin välitykseen perustuvasta tiedon siirrosta. Diplomityön johtopäätösosuudessa todetaan, että paperin myyntijärjestelmän tiedon siirto toimii luotettavasti nykyisessä järjestelmässä. Tulevaisuuden tarpeet ja parannukset ovat kuitenkin vaikeasti toteutettavissa nykyään käytettävin välinein. Erityisesti internetin hyödyntäminen nähdään tärkeänä, mutta se on vaikeasti otettavissa käyttöön nykyisessä järjestelmässä. Viestin välitykseen perustuvat järjestelmät ovat osoittautuneet käytännössä toimiviksi ja tärkein kehitysehdotus onkin viestin välitysjärjestelmän käyttöönotto.
Resumo:
During the last half decade the popularity of different peer-to-peer applications has grown tremendously. Traditionally only desktop-class computers with fixed line network connections have been powerful enough to utilize peer-to-peer. However, the situation is about to change. The rapid development of wireless terminals will soon enable peer-to-peer applications on these devices as well as on desktops. Possibilities are further enhanced by the upcoming high-bandwidth cellular networks. In this thesis the applicability and implementation alternatives of an existing peer-to-peer system are researched for two target platforms: Linux powered iPaq and Symbian OS based smartphone. The result is a peer-to-peer middleware component suitable for mobile terminals. It works on both platforms and utilizes Bluetooth networking technology. The implemented software platforms are compatible with each other and support for additional network technologies can be added with a minimal effort.
Resumo:
TeliaSoneran SME-viestintäjärjestelmän tarkoituksena on toimia demo- ja kehitysalustana uusille viestintäpalveluille. Näitä palveluita ovat esimerkiksi tilatiedon seuraaminen ja muuttaminen sekä pikaviestien lähettäminen ja vastaanottaminen eri alustoilla, kuten matkapuhelimilla, PDA-laitteilla, PC:eillä. Järjestelmän tulee myös toimia helppona yhteysrajapintana mahdollisille tuleville tiedonsiirtoteille. Pikaviestien lähetys- ja puhelujensignalointiprotokollana järjestelmässä toimii SIP. Järjestelmän sisäisenä kommunikaatioprotokollana toimii CORBA. Työn osuus ja tämän dokumentin fokus ovat järjestelmäytimessä eli Core:ssa. Core:n avulla järjestelmän eri komponentit, kuten SIP-, WAP- ja WWW-viestinvälityspalvelimet sidotaan toisiinsa sekä tietokantaan. Ytimen tehtäviin kuuluu myös käyttäjien tilatietojen ylläpito, viestien reititys eri päätelaitteisiin, ryhmäviestintä sekä pikaviestikomentojen toiminnallisuus, eli sanalla sanoen älykkyys. Lisäksi työssä tarkastellaan ytimen käyttämiä rajapintoja ja niiden toteutustekniikoita, projektin toteutukseen käytettyjä työkaluja sekä järjestelmän tarjoamia palveluita yksityiskohtaisemmin ytimen kannalta. Lopuksi luodaan silmäys tulevaisuuden näkymiin ja järjestelmän nykytilaan sekä kokonaisuutena hyvin menneen projektin tavoitteisiin.
Resumo:
Työssä tarkastellaan yleisellä tasolla sovelluspalvelimia ja väliohjelmistoja sekä niille asetettuja vaatimuksia. Erityisesti käytännön työn ratkaisupohjana käytettyyn CORBA-väliohjelmistoteknologiaan perehdytään huolella. Pääpainon saavat kuitenkin käytännön työssä toteutettavat dynaamiset DII- ja DSI-rajapinnat. Teoriaosan lopussa esitellään käytetty CVOPS-työkalu ja sovelluspalvelin, johon dynaaminen rajapinta lisätään. Dynaamisuustuki lisätään sovelluspalvelimen CVOPS-ORB-järjestelmäkomponenttiin, jonka toiminta ja arkkitehtuuri kuvataan. Käytännön osuus jakautuu dynaamisen rajapinnan eri toteutusvaiheiden esittelyyn ja jatkokehityssuunnitelmiin. Työssä toteutettu dynaaminen kutsu- ja palvelurajapinta mahdollistaa pyyntöjen lähettämisen ja vastaanottamisen dynaamisesti. Se lisää joustavuutta asiakas- ja palvelintoteutuksiin, mutta se on toteutukseltaan monimutkaisempi ja suorituskyvyltään heikompi kuin staattinen rajapinta.
Resumo:
Nowadays, Wireless Sensor Networks (WSN) arealready a very important data source to obtain data about the environment. Thus, they are key to the creation of Cyber-Physical Systems (CPS). Given the popularity of P2P middlewares as ameans to efficiently process information and distribute services, being able to integrate them to WSN¿s is an interesting proposal. JXTA is a widely used P2P middleware that allows peers to easily exchange information, heavily relying on its main architectural highlight, the capability to organize peers with common interests into peer groups. However, right now, approaches to integrate WSNs to a JXTA network seldom take advantage of peer groups. For this reason, in this paper we present jxSensor, an integrationlayer for sensor motes which facilitates the deployment of CPS¿s under this architecture. This integration has been done taking into account JXTA¿s idiosyncrasies and proposing novel ideas,such as the Virtual Peer, a group of sensors that acts as a single entity within the peer group context.
Resumo:
In this thesis concurrent communication event handling is implemented using thread pool approach. Concurrent events are handled with a Reactor design pattern and multithreading is implemented using a Leader/Followers design pattern. Main focus is to evaluate behaviour of implemented model by different numbers of concurrent connections and amount of used threads. Furthermore, model feasibility in a PeerHood middleware is evaluated. Implemented model is evaluated with created test environment which enables concurrent message sending from multiple connections to the system under test. Messages round trip times are measured in the tester application. In the evaluation processing delay into system is simulated and influence of delay to the average round trip time is analysed.
Resumo:
The RPC Detector Control System (RCS) is the main subject of this PhD work. The project, involving the Lappeenranta University of Technology, the Warsaw University and INFN of Naples, is aimed to integrate the different subsystems for the RPC detector and its trigger chain in order to develop a common framework to control and monitoring the different parts. In this project, I have been strongly involved during the last three years on the hardware and software development, construction and commissioning as main responsible and coordinator. The CMS Resistive Plate Chambers (RPC) system consists of 912 double-gap chambers at its start-up in middle of 2008. A continuous control and monitoring of the detector, the trigger and all the ancillary sub-systems (high voltages, low voltages, environmental, gas, and cooling), is required to achieve the operational stability and reliability of a so large and complex detector and trigger system. Role of the RPC Detector Control System is to monitor the detector conditions and performance, control and monitor all subsystems related to RPC and their electronics and store all the information in a dedicated database, called Condition DB. Therefore the RPC DCS system has to assure the safe and correct operation of the sub-detectors during all CMS life time (more than 10 year), detect abnormal and harmful situations and take protective and automatic actions to minimize consequential damages. The analysis of the requirements and project challenges, the architecture design and its development as well as the calibration and commissioning phases represent themain tasks of the work developed for this PhD thesis. Different technologies, middleware and solutions has been studied and adopted in the design and development of the different components and a big challenging consisted in the integration of these different parts each other and in the general CMS control system and data acquisition framework. Therefore, the RCS installation and commissioning phase as well as its performance and the first results, obtained during the last three years CMS cosmic runs, will be
Resumo:
Verkostokeskeisessä sodankäynnissä tietojärjestelmien suurimpana haasteena on oikean tiedon hajauttaminen oikeaan paikkaan ja aikaan. Tietojärjestelmissä esitettävän ilmatilannekuvan tulee vastata reaalimaailman tilannetta parhaalla mahdollisella tavalla. Ilmatorjunnassa reaaliaikaisuus nousee erityisen suureen rooliin nopeasti liikkuvien kohteiden takia. Tämä diplomityö on tehty Insta DefSec Oy:ssä liittyen johtamisjärjestelmän uudistamishankkeeseen. Työn vaatimuksina olivat standardeihin perustuvat ratkaisut, joista keskeisimmäksi nousi Data Distribution Service -standardi (DDS) ja sen hyödyntäminen osana johtamisjärjestelmän tiedon hajautusta. Työssä esitellään johtamisjärjestelmien tiedon hajautukseen liittyviä haasteita sekä paikallisessa että maantieteellisesti hajautetussa toimintaympäristössä. Työssä toteutettiin liityntäohjelmisto nykyisen ja uuden johtamisjärjestelmän välille. Liityntäohjelmiston tehtävänä on tuottaa reaaliaikaista ilmatilannekuvaa nykyisestä johtamisjärjestelmästä uuteen johtamisjärjestelmään. DDS-standardin toteuttavana välikerrosarkkitehtuurina käytettiin OpenSplice DDS -tuotetta. Valittu teknologia tarjoaa edistykselliset julkaisija–tilaaja-mallin mukaiset menetelmät tiedon reaaliaikaiseen hajauttamiseen. DDS:n arkkitehtuuri ja palvelun laadun mekanismit mahdollistavat tiedon hajautuksen sodanajan johtamisjärjestelmille.
Resumo:
Tämän diplomityön tavoitteena on kuvata suunnitelma, jossa alun perin WWW-ympäristöön kehitettyä palvelua muokataan siten, että palvelu skaalautuu mahdollisimman hyvin tulevaisuuden laajennuksiin. Selainpohjaisten palveluiden lisäksi esimerkiksi mobiili-palvelut ja erilaiset työpöytäsovellusintegraatiot ovat kasvattaneet suosiotaan. Samoin eri palveluiden välisestä yhteistoiminnasta on kasvanut merkittävä osa Internet-palveluiden loppukäyttäjilleen tarjoamaa palvelukokonaisuutta. Esimerkkejä WWW-palveluiden integroinneista päätelaitteille ovat hakukoneiden ja pikaviestimien mobiili-versiot, ja palveluiden yhteistoiminnasta erilaisten uutispalveluiden ja sosiaalisten palveluiden, kuten Facebook, väliset yhteisölinkitykset. Tässä diplomityössä selvitetään aluksi Internet-pohjaisten palveluiden kehitystä sekä tutustutaan tarkemmin palveluiden monikanavaisuuteen. Tämän jälkeen käydään läpi loppukäyttäjien saatavilla olevia päätelaitteita verkkoyhteyksineen ja WWW-palveluiden suunnittelumalleja. Suunnittelun lähtökohtana oli se, että erilaisten päätelaitteiden, päätelaitteiden ohjelmistojen ja käytössä olevien verkkoyhteyksien muodostamien palvelualustojen liittäminen palveluun olisi mahdollisimman yksinkertaista. Ja tukea uusien palvelualustojen käyttäjien ja sisällön sovittamista olemassa olevaan palveluun. Työn lopputuloksena on suunnitelma, joka pohjautuu välikerroksen rakentamiseen uusien palvelualustojen ja vanhan palvelun väliin. Palveluun tarjotaan välikerroksen kautta personoitu rajapinta luotetuille asiakkaille sekä kaikille avoin julkinen rajapinta. Välikerros suunniteltiin yksinkertaisella REST-arkkitehtuurityylillä, mikä mahdollistaa palvelun tarjonnan turvallisesti ja tehokkaasti. Tähän välikerrokseen lisätään käyttäjän- ja sisällönhallinnan komponentteja pitämään huolen palvelun eheydestä. Tämä diplomityö osoittaa, että oikealla arkkitehtuurilla suunniteltu monikerroksinen väliohjelmisto tarjoaa tehokkaan tavan integroida ja hallinnoida uusia alustoja.
Resumo:
The necessity of EC (Electronic Commerce) and enterprise systems integration is perceived from the integrated nature of enterprise systems. The proven benefits of EC to provide competitive advantages to the organizations force enterprises to adopt and integrate EC with their enterprise systems. Integration is a complex task to facilitate seamless flow of information and data between different systems within and across enterprises. Different systems have different platforms, thus to integrate systems with different platforms and infrastructures, integration technologies, such as middleware, SOA (Service-Oriented Architecture), ESB (Enterprise Service Bus), JCA (J2EE Connector Architecture), and B2B (Business-to-Business) integration standards are required. Huge software vendors, such as Oracle, IBM, Microsoft, and SAP suggest various solutions to address EC and enterprise systems integration problems. There are limited numbers of literature about the integration of EC and enterprise systems in detail. Most of the studies in this area have focused on the factors which influence the adoption of EC by enterprise or other studies provide limited information about a specific platform or integration methodology in general. Therefore, this thesis is conducted to cover the technical details of EC and enterprise systems integration and covers both the adoption factors and integration solutions. In this study, many literature was reviewed and different solutions were investigated. Different enterprise integration approaches as well as most popular integration technologies were investigated. Moreover, various methodologies of integrating EC and enterprise systems were studied in detail and different solutions were examined. In this study, the influential factors to adopt EC in enterprises were studied based on previous literature and categorized to technical, social, managerial, financial, and human resource factors. Moreover, integration technologies were categorized based on three levels of integration, which are data, application, and process. In addition, different integration approaches were identified and categorized based on their communication and platform. Also, different EC integration solutions were investigated and categorized based on the identified integration approaches. By considering different aspects of integration, this study is a great asset to the architectures, developers, and system integrators in order to integrate and adopt EC with enterprise systems.
Resumo:
Affiliation: Département de biochimie, Faculté de médecine, Université de Montréal
Resumo:
De nos jours, les applications de grande taille sont développées à l’aide de nom- breux cadres d’applications (frameworks) et intergiciels (middleware). L’utilisation ex- cessive d’objets temporaires est un problème de performance commun à ces applications. Ce problème est appelé “object churn”. Identifier et comprendre des sources d’“object churn” est une tâche difficile et laborieuse, en dépit des récentes avancées dans les tech- niques d’analyse automatiques. Nous présentons une approche visuelle interactive conçue pour aider les développeurs à explorer rapidement et intuitivement le comportement de leurs applications afin de trouver les sources d’“object churn”. Nous avons implémenté cette technique dans Vasco, une nouvelle plate-forme flexible. Vasco se concentre sur trois principaux axes de con- ception. Premièrement, les données à visualiser sont récupérées dans les traces d’exécu- tion et analysées afin de calculer et de garder seulement celles nécessaires à la recherche des sources d’“object churn”. Ainsi, des programmes de grande taille peuvent être vi- sualisés tout en gardant une représentation claire et compréhensible. Deuxièmement, l’utilisation d’une représentation intuitive permet de minimiser l’effort cognitif requis par la tâche de visualisation. Finalement, la fluidité des transitions et interactions permet aux utilisateurs de garder des informations sur les actions accomplies. Nous démontrons l’efficacité de l’approche par l’identification de sources d’“object churn” dans trois ap- plications utilisant intensivement des cadres d’applications framework-intensive, inclu- ant un système commercial.
Resumo:
Die Arbeit stellt einen strukturellen Rahmen zur Einordnung sowohl bisheriger als auch zukünftiger organisationstheoretischer und DV-technologischer Entwicklungen zur Umsetzung eines Computer Integrated Business (CIB) bereit. Dazu analysiert sie bisherige Ansätze und zukünftige Perspektiven eines CIB mittels theoretischer und empirischer Bearbeitungsverfahren. Die Notwendigkeit zur Unternehmensintegration ergibt sich aus dem betriebswirtschaftlichen Konzept der Arbeitsteilung, über die das Phänomen der Economies of Scale erschlossen wird. Die Arbeitsteilung wurde zum Gestaltungskonzept in den Fabriken der industriellen Revolution. Komplexe Arbeitsgänge wurden in spezialisierte Teilaufgaben zerlegt und nach Möglichkeit auf maschinelle bzw. technologische Potentiale übertragen. Die Zielsetzung lag zunächst in der Automatisierung des Materialflusses, während der Informationsfluss noch lange Zeit im Hintergrund stand. Mittlerweile ermöglichen leistungsfähige DV-Systeme auch die Automatisierung des Informationsflusses und damit die DV-gestützte Integration des Unternehmens, die den Kern des CIB-Konzeptes darstellt. Das CIB-Konzept wurde Ende der achtziger Jahre am Fraunhofer-Institut für Arbeitswirtschaft und Organisation als Erweiterung des Computer Integrated Manufacturing (CIM) für Industrieunternehmen von Bullinger geprägt, jedoch in seiner Zielsetzung als Modell zur Totalintegration von Unternehmen danach nicht maßgeblich weiterentwickelt. Vielmehr wurden in der Folgezeit überwiegend Teilintegrationslösungen diskutiert, wie z. B. Konzepte zur Integration der Fertigung oder zur Unterstützung der Teamarbeit. Der Aspekt der umfassenden, unternehmensinternen Integration rückte Mitte der neunziger Jahre durch die an Popularität gewinnende Internet-Technologie an den Rand der wissenschaftlichen Diskussion. Erst nach dem Zusammenbruch der ersten Internet-Euphorie und der anschließenden wirtschaftlichen Rezession gewann das Integrationsthema am Anfang dieses Jahrzehnts mit Hinblick auf dadurch mögliche Kostenvorteile wieder an Bedeutung. Die Diskussion wurde jedoch mit starkem technologischem Fokus geführt (z. B. zum Thema Enterprise Application Integration) und Aspekte der Unternehmensorganisation wurden bestenfalls grob, jedoch nicht im Detail diskutiert. Die vorliegende Arbeit bearbeitet die CIB-Thematik umfassend sowohl aus unternehmensorganisatorischer als auch DV-technologischer Sicht und bewegt sich deshalb interdisziplinär zwischen den Wissenschaftsbereichen der Betriebswirtschaft und der Informatik. Die Untersuchung wird vor dem Hintergrund einer sozio-technologischen Unternehmensorganisation geführt, in der DV-technologische Potentiale neben humanen Potentialen zur Erreichung der Unternehmensziele eingesetzt werden. DV-technologische Potentiale übernehmen darin einerseits Integrationsaufgaben und werden andererseits aber selbst zum Integrationsziel. Die Herausforderung für die Unternehmensführung besteht in der Konfiguration des CIB und im Finden eines Gleichgewichts zwischen Arbeitsteilung und Integration auf der einen sowie humanen und technologischen Potentialen auf der anderen Seite, letztendlich aber auch in der Automatisierung der Integration. Die Automatisierung der Integration stellt mit Hinblick auf die durch Umweltveränderungen bedingte Konfigurationsanpassung ein bisher konzeptionell nur ansatzweise gelöstes Problem dar. Der technologischen Integrationsarchitektur sowie den verwendeten Methoden des Prozessdesigns und der Software-Entwicklung kommt bei der Lösung dieses Problems eine hohe Bedeutung zu. Über sie bestimmt sich die Anpassungsfähigkeit und geschwindigkeit des CIB. Es kann vermutet werden, dass eine Lösung jedoch erst erreicht wird, wenn sich die Unternehmensorganisation vom Konzept der zentralen Koordination abwendet und stattdessen an dezentralen Koordinationsmechanismen unter Verwendung ultrastabiler Anpassungsprogramme orientiert, wie sie z. B. in der Biologie bei Insektenkulturen untersucht wurden.
Resumo:
In the vision of Mark Weiser on ubiquitous computing, computers are disappearing from the focus of the users and are seamlessly interacting with other computers and users in order to provide information and services. This shift of computers away from direct computer interaction requires another way of applications to interact without bothering the user. Context is the information which can be used to characterize the situation of persons, locations, or other objects relevant for the applications. Context-aware applications are capable of monitoring and exploiting knowledge about external operating conditions. These applications can adapt their behaviour based on the retrieved information and thus to replace (at least a certain amount) the missing user interactions. Context awareness can be assumed to be an important ingredient for applications in ubiquitous computing environments. However, context management in ubiquitous computing environments must reflect the specific characteristics of these environments, for example distribution, mobility, resource-constrained devices, and heterogeneity of context sources. Modern mobile devices are equipped with fast processors, sufficient memory, and with several sensors, like Global Positioning System (GPS) sensor, light sensor, or accelerometer. Since many applications in ubiquitous computing environments can exploit context information for enhancing their service to the user, these devices are highly useful for context-aware applications in ubiquitous computing environments. Additionally, context reasoners and external context providers can be incorporated. It is possible that several context sensors, reasoners and context providers offer the same type of information. However, the information providers can differ in quality levels (e.g. accuracy), representations (e.g. position represented in coordinates and as an address) of the offered information, and costs (like battery consumption) for providing the information. In order to simplify the development of context-aware applications, the developers should be able to transparently access context information without bothering with underlying context accessing techniques and distribution aspects. They should rather be able to express which kind of information they require, which quality criteria this information should fulfil, and how much the provision of this information should cost (not only monetary cost but also energy or performance usage). For this purpose, application developers as well as developers of context providers need a common language and vocabulary to specify which information they require respectively they provide. These descriptions respectively criteria have to be matched. For a matching of these descriptions, it is likely that a transformation of the provided information is needed to fulfil the criteria of the context-aware application. As it is possible that more than one provider fulfils the criteria, a selection process is required. In this process the system has to trade off the provided quality of context and required costs of the context provider against the quality of context requested by the context consumer. This selection allows to turn on context sources only if required. Explicitly selecting context services and thereby dynamically activating and deactivating the local context provider has the advantage that also the resource consumption is reduced as especially unused context sensors are deactivated. One promising solution is a middleware providing appropriate support in consideration of the principles of service-oriented computing like loose coupling, abstraction, reusability, or discoverability of context providers. This allows us to abstract context sensors, context reasoners and also external context providers as context services. In this thesis we present our solution consisting of a context model and ontology, a context offer and query language, a comprehensive matching and mediation process and a selection service. Especially the matching and mediation process and the selection service differ from the existing works. The matching and mediation process allows an autonomous establishment of mediation processes in order to transfer information from an offered representation into a requested representation. In difference to other approaches, the selection service selects not only a service for a service request, it rather selects a set of services in order to fulfil all requests which also facilitates the sharing of services. The approach is extensively reviewed regarding the different requirements and a set of demonstrators shows its usability in real-world scenarios.
Resumo:
Many online services access a large number of autonomous data sources and at the same time need to meet different user requirements. It is essential for these services to achieve semantic interoperability among these information exchange entities. In the presence of an increasing number of proprietary business processes, heterogeneous data standards, and diverse user requirements, it is critical that the services are implemented using adaptable, extensible, and scalable technology. The COntext INterchange (COIN) approach, inspired by similar goals of the Semantic Web, provides a robust solution. In this paper, we describe how COIN can be used to implement dynamic online services where semantic differences are reconciled on the fly. We show that COIN is flexible and scalable by comparing it with several conventional approaches. With a given ontology, the number of conversions in COIN is quadratic to the semantic aspect that has the largest number of distinctions. These semantic aspects are modeled as modifiers in a conceptual ontology; in most cases the number of conversions is linear with the number of modifiers, which is significantly smaller than traditional hard-wiring middleware approach where the number of conversion programs is quadratic to the number of sources and data receivers. In the example scenario in the paper, the COIN approach needs only 5 conversions to be defined while traditional approaches require 20,000 to 100 million. COIN achieves this scalability by automatically composing all the comprehensive conversions from a small number of declaratively defined sub-conversions.