931 resultados para User interfaces (Computer systems)
Resumo:
Els sistemes dʼatenció mèdica en situacions de pèrdues humanes massives necessiten classificar un número molt elevat de víctimes en un temps limitat i amb pocs recursos disponibles. Els mètodes clàssics es basen en una etiqueta de triatge de paper on el personal dʼemergències anota lʼestat del pacient juntament amb una quantitat reduïda dʼinformació. En aquest projecte descrivim lʼanàlisi, disseny i implementació dʼinterfícies gràfiques per dispositius mòbils pel protocol de triatge START, per ser utilitzades pels equips dʼemergència. Els components del projecte inclouen un dispositiu portàtil Nokia N810 amb connexió GPS, i IDBlue, un lector dʼetiquetes RFID per Bluetooth.
Resumo:
InterPro, an integrated documentation resource of protein families, domains and functional sites, was created in 1999 as a means of amalgamating the major protein signature databases into one comprehensive resource. PROSITE, Pfam, PRINTS, ProDom, SMART and TIGRFAMs have been manually integrated and curated and are available in InterPro for text- and sequence-based searching. The results are provided in a single format that rationalises the results that would be obtained by searching the member databases individually. The latest release of InterPro contains 5629 entries describing 4280 families, 1239 domains, 95 repeats and 15 post-translational modifications. Currently, the combined signatures in InterPro cover more than 74% of all proteins in SWISS-PROT and TrEMBL, an increase of nearly 15% since the inception of InterPro. New features of the database include improved searching capabilities and enhanced graphical user interfaces for visualisation of the data. The database is available via a webserver (http://www.ebi.ac.uk/interpro) and anonymous FTP (ftp://ftp.ebi.ac.uk/pub/databases/interpro).
Resumo:
The Department of Health of the Government of Andalusia provides professionals of the Andalusian Public Health Care System a collaborative working environment (Entorno colaborativo de trabajo [ECT]) based on the principles of web 2.0. The ECT is organized into communities, understood as sets of people with a common interest who share a space with its own information and collaboration tools. This space is managed and powered autonomously by the communities themselves. This paper analyzes the use and degree of implementation of the ECT, considering the user communities and activity statistics in 2009 and 2010. From the data obtained we deduce that instrumental services have easier acceptance than collaboration and knowledge management services; content generation is focused on a small number of users; and communities associated with organizational units have less development than those associated with work areas or projects.
Resumo:
BACKGROUND. Bioinformatics is commonly featured as a well assorted list of available web resources. Although diversity of services is positive in general, the proliferation of tools, their dispersion and heterogeneity complicate the integrated exploitation of such data processing capacity. RESULTS. To facilitate the construction of software clients and make integrated use of this variety of tools, we present a modular programmatic application interface (MAPI) that provides the necessary functionality for uniform representation of Web Services metadata descriptors including their management and invocation protocols of the services which they represent. This document describes the main functionality of the framework and how it can be used to facilitate the deployment of new software under a unified structure of bioinformatics Web Services. A notable feature of MAPI is the modular organization of the functionality into different modules associated with specific tasks. This means that only the modules needed for the client have to be installed, and that the module functionality can be extended without the need for re-writing the software client. CONCLUSIONS. The potential utility and versatility of the software library has been demonstrated by the implementation of several currently available clients that cover different aspects of integrated data processing, ranging from service discovery to service invocation with advanced features such as workflows composition and asynchronous services calls to multiple types of Web Services including those registered in repositories (e.g. GRID-based, SOAP, BioMOBY, R-bioconductor, and others).
Resumo:
In 2006 the Library of the Andalusian Public Health System (BVSSPA) is constituted as a Virtual Library which provides Resources and Services that are accessed through inter-hospital local area network (corporate intranet) and Internet. On the other hand, the Hospital de la Axarquia still did not have any institutional or self-presence on the Internet and the librarian ask the need to create a space for communication with the "digital users" of the Library of the area through a website. MATERIALS AND METHODS. The reasons why we opted for a blog were: -It was necessary to make no financial outlay for its establishment. It allowed for great versatility, both in its administration and in its management by users. -The ability to compile on the same platform different Web 2.0 communication tools. Between different options available we chose Blogger Google Inc. The blog allowed entry to the 2.0 services or Social Web in the library. The benefits offered were many, especially the visibility of the service and communication with the user. 2.0 tools that have been incorporated into the library are: content syndication (RSS) which allowed users to stay informed about updates to the blog. Share documents and other multimedia as presentations through SlideShare, images through Flickr or Picasa, or videos (YouTube). And the presence on social network like Facebook and Twitter. RESULTS. The analysis of the activity we has been traking by Google Analytics tool, helping to determine the number of blog visits. Since its stablishment, on November 17th 2006, until November 29th 2010 the blog has received 15,787 visitors, 38,422 page views were consulted, at each visit on average 2.4 pages were consulted and each visit has an average stay at the site of 4'31''. DISCUSSION. The blog has served as a communication and information tool with the user. Since the creation of the blog we have incorporated technologies and tools to interact with the user. With all the tools used we have applied the concept of "open source" and the contents were generated from the activities organized in the Knowledge Management Unit from the anatomo-clinical sessions, the training activities, dissemination events, etc. The result has been the customization of library services, contextualized in the Knowledge Management Unit - Axarquia. In social networks we have shared information and files with the professionals and the community. CONCLUSIONS. The blog has allowed us to explore technologies that allow us to communicate with the user and the community, disseminate information and documents with the participation of users and become the "Interactive Library" we aspire to be.
Resumo:
The motivation for this research initiated from the abrupt rise and fall of minicomputers which were initially used both for industrial automation and business applications due to their significantly lower cost than their predecessors, the mainframes. Later industrial automation developed its own vertically integrated hardware and software to address the application needs of uninterrupted operations, real-time control and resilience to harsh environmental conditions. This has led to the creation of an independent industry, namely industrial automation used in PLC, DCS, SCADA and robot control systems. This industry employs today over 200'000 people in a profitable slow clockspeed context in contrast to the two mainstream computing industries of information technology (IT) focused on business applications and telecommunications focused on communications networks and hand-held devices. Already in 1990s it was foreseen that IT and communication would merge into one Information and communication industry (ICT). The fundamental question of the thesis is: Could industrial automation leverage a common technology platform with the newly formed ICT industry? Computer systems dominated by complex instruction set computers (CISC) were challenged during 1990s with higher performance reduced instruction set computers (RISC). RISC started to evolve parallel to the constant advancement of Moore's law. These developments created the high performance and low energy consumption System-on-Chip architecture (SoC). Unlike to the CISC processors RISC processor architecture is a separate industry from the RISC chip manufacturing industry. It also has several hardware independent software platforms consisting of integrated operating system, development environment, user interface and application market which enables customers to have more choices due to hardware independent real time capable software applications. An architecture disruption merged and the smartphone and tablet market were formed with new rules and new key players in the ICT industry. Today there are more RISC computer systems running Linux (or other Unix variants) than any other computer system. The astonishing rise of SoC based technologies and related software platforms in smartphones created in unit terms the largest installed base ever seen in the history of computers and is now being further extended by tablets. An underlying additional element of this transition is the increasing role of open source technologies both in software and hardware. This has driven the microprocessor based personal computer industry with few dominating closed operating system platforms into a steep decline. A significant factor in this process has been the separation of processor architecture and processor chip production and operating systems and application development platforms merger into integrated software platforms with proprietary application markets. Furthermore the pay-by-click marketing has changed the way applications development is compensated: Three essays on major trends in a slow clockspeed industry: The case of industrial automation 2014 freeware, ad based or licensed - all at a lower price and used by a wider customer base than ever before. Moreover, the concept of software maintenance contract is very remote in the app world. However, as a slow clockspeed industry, industrial automation has remained intact during the disruptions based on SoC and related software platforms in the ICT industries. Industrial automation incumbents continue to supply systems based on vertically integrated systems consisting of proprietary software and proprietary mainly microprocessor based hardware. They enjoy admirable profitability levels on a very narrow customer base due to strong technology-enabled customer lock-in and customers' high risk leverage as their production is dependent on fault-free operation of the industrial automation systems. When will this balance of power be disrupted? The thesis suggests how industrial automation could join the mainstream ICT industry and create an information, communication and automation (ICAT) industry. Lately the Internet of Things (loT) and weightless networks, a new standard leveraging frequency channels earlier occupied by TV broadcasting, have gradually started to change the rigid world of Machine to Machine (M2M) interaction. It is foreseeable that enough momentum will be created that the industrial automation market will in due course face an architecture disruption empowered by these new trends. This thesis examines the current state of industrial automation subject to the competition between the incumbents firstly through a research on cost competitiveness efforts in captive outsourcing of engineering, research and development and secondly researching process re- engineering in the case of complex system global software support. Thirdly we investigate the industry actors', namely customers, incumbents and newcomers, views on the future direction of industrial automation and conclude with our assessments of the possible routes industrial automation could advance taking into account the looming rise of the Internet of Things (loT) and weightless networks. Industrial automation is an industry dominated by a handful of global players each of them focusing on maintaining their own proprietary solutions. The rise of de facto standards like IBM PC, Unix and Linux and SoC leveraged by IBM, Compaq, Dell, HP, ARM, Apple, Google, Samsung and others have created new markets of personal computers, smartphone and tablets and will eventually also impact industrial automation through game changing commoditization and related control point and business model changes. This trend will inevitably continue, but the transition to a commoditized industrial automation will not happen in the near future.
Resumo:
The European Space Agency's Gaia mission will create the largest and most precise three dimensional chart of our galaxy (the Milky Way), by providing unprecedented position, parallax, proper motion, and radial velocity measurements for about one billion stars. The resulting catalogue will be made available to the scientific community and will be analyzed in many different ways, including the production of a variety of statistics. The latter will often entail the generation of multidimensional histograms and hypercubes as part of the precomputed statistics for each data release, or for scientific analysis involving either the final data products or the raw data coming from the satellite instruments. In this paper we present and analyze a generic framework that allows the hypercube generation to be easily done within a MapReduce infrastructure, providing all the advantages of the new Big Data analysis paradigmbut without dealing with any specific interface to the lower level distributed system implementation (Hadoop). Furthermore, we show how executing the framework for different data storage model configurations (i.e. row or column oriented) and compression techniques can considerably improve the response time of this type of workload for the currently available simulated data of the mission. In addition, we put forward the advantages and shortcomings of the deployment of the framework on a public cloud provider, benchmark against other popular solutions available (that are not always the best for such ad-hoc applications), and describe some user experiences with the framework, which was employed for a number of dedicated astronomical data analysis techniques workshops.
Resumo:
The European Space Agency's Gaia mission will create the largest and most precise three dimensional chart of our galaxy (the Milky Way), by providing unprecedented position, parallax, proper motion, and radial velocity measurements for about one billion stars. The resulting catalogue will be made available to the scientific community and will be analyzed in many different ways, including the production of a variety of statistics. The latter will often entail the generation of multidimensional histograms and hypercubes as part of the precomputed statistics for each data release, or for scientific analysis involving either the final data products or the raw data coming from the satellite instruments. In this paper we present and analyze a generic framework that allows the hypercube generation to be easily done within a MapReduce infrastructure, providing all the advantages of the new Big Data analysis paradigmbut without dealing with any specific interface to the lower level distributed system implementation (Hadoop). Furthermore, we show how executing the framework for different data storage model configurations (i.e. row or column oriented) and compression techniques can considerably improve the response time of this type of workload for the currently available simulated data of the mission. In addition, we put forward the advantages and shortcomings of the deployment of the framework on a public cloud provider, benchmark against other popular solutions available (that are not always the best for such ad-hoc applications), and describe some user experiences with the framework, which was employed for a number of dedicated astronomical data analysis techniques workshops.
Resumo:
Tässä diplomityössä tutkitaan automatisoitua testausta ja käyttöliittymätestauksen tekemistä helpommaksi Symbian-käyttöjärjestelmässä. Työssä esitellään Symbian ja Symbian-sovelluskehityksessä kohdattavia haasteita. Lisäksi kerrotaan testausstrategioista ja -tavoista sekä automatisoidusta testaamisesta. Lopuksi esitetään työkalu, jolla testitapausten luominen toiminnalisuus- ja järjestelmätestaukseen tehdään helpommaksi. Graafiset käyttöliittymättuovat ainutlaatuisia haasteita ohjelmiston testaamiseen. Ne tehdään usein monimutkaisista komponenteista ja niitä suunnitellaan jatkuvasti uusiksi ohjelmistokehityksen aikana. Graafisten käyttöliittymien testaukseen käytetään usein kaappaus- ja toistotyökaluja. Käyttöliittymätestauksen testitapausten suunnittelu ja toteutus vaatii paljon panostusta. Koska graafiset käyttöliittymät muodostavat suuren osan koodista, voitaisiin säästää paljon resursseja tekemällä testitapausten luomisesta helpompaa. Käytännön osuudessa toteutettu projekti pyrkii tähän tekemällä testiskriptien luomisesta visuaalista. Näin ollen itse testien skriptikieltä ei tarvitse ymmärtää ja testien hahmottaminen on myös helpompaa.
Resumo:
Tämä diplomityö on tehty osana HumanICT-projektia, jonka tavoitteena on kehittää uusi, virtuaalitekniikoita hyödyntävä, työkoneiden käyttäjäliityntöjen suunnittelumenetelmä. Työn tarkoituksena oli kehittää VTT:n Tuotteet ja tuotanto tutkimusyksikköön kuluvan Ihminen-kone-turvallisuus ryhmän nykyistä virtuaalitodellisuuslaboratoriota siten, että sitä voidaan käyttää työkoneiden suunnittelussa sekä monipuolisissa ergonomiatarkasteluissa. Itse ympäristön kehittäminen pitää sisällään uuden ohjainjärjestelmän suunnittelun sekä sen implementoinnin nykyisin käytössä olevaan virtuaaliympäristöön. Perinteisesti ohjaamosimulaattorit ovat olleet sovelluskohteisiin räätälöityjä, joten ne ovat kalliita ja niiden konfiguroinnin muuttaminen on vaikeaa, joskus jopa mahdotonta. Tämän työntarkoituksena oli kehittää PC-tietokoneeseen ja yleiseen käyttöjärjestelmään perustuva ohjainjärjestelmä, joka on nopeasti kytkettävissä erilaisiin virtuaaliympäristön sovelluksiin, kuten ohjaamomalleihin. Työssä tarkasteltiin myös tapoja mallintaa fysikaalisia ilmiöitä reaaliaikasovelluksissa, eli on-line simuloinnissa. Tämän tarkastelun perusteella etsittiin ja valittiin jatkokäsittelyyn ohjelmistoja, joiden reaaliaikaisen dynamiikan simulointialgoritmitolivat kaikkein kehittyneimpiä ja monipuolisia.
Resumo:
Semantic Web applications take off is being slower than expected, at least with respect to “real-world” applications and users. One of the main reasons for this lack of adoption is that most Semantic Web user interfaces are still immature from the usability and accessibility points of view. This is due to the novelty of these technologies, but this also motivates the exploration of alternative interaction paradigms, different from the “traditional” Web or Desktop applications ones. Our proposal is realized in the Rhizomer platform, which explores the possibilities of the object–action interaction paradigm at the Web scale. This paradigm is well suited for heterogeneous resource spaces such as those common in the Semantic Web. Resources, described by metadata, correspond to the objects in the paradigm. Semantic web services, which are dynamically associated to these objects, correspond to the actions. The platform is being put into practice in the context of a research project in order to build an open application for media distribution based on Semantic Web technologies. Moreover, its usability and accessibility have been evaluated in this real setting and compared to similar systems.
Resumo:
Käyttäjien tunnistaminen tietojärjestelmissä on ollut yksi tietoturvan kulmakivistä vuosikymmenten ajan. Ajatus käyttäjätunnuksesta ja salasanasta on kaikkein kustannustehokkain ja käytetyin tapa säilyttää luottamus tietojärjestelmän ja käyttäjien välillä. Tietojärjestelmien käyttöönoton alkuaikoina, jolloin yrityksissä oli vain muutamia tietojärjestelmiä ja niitä käyttivät vain pieni ryhmä käyttäjiä, tämä toimintamalli osoittautui toimivaksi. Vuosien mittaan järjestelmien määrä kasvoi ja sen mukana kasvoi salasanojen määrä ja monimuotoisuus. Kukaan ei osannut ennustaa, kuinka paljon salasanoihin liittyviä ongelmia käyttäjät kohtaisivat ja kuinka paljon ne tulisivat ruuhkauttamaan yritysten käyttäjätukea ja minkälaisia tietoturvariskejä salasanat tulisivat aiheuttamaan suurissa yrityksissä. Tässä diplomityössä tarkastelemme salasanojen aiheuttamia ongelmia suuressa, globaalissa yrityksessä. Ongelmia tarkastellaan neljästä eri näkökulmasta; ihmiset, teknologia, tietoturva ja liiketoiminta. Ongelmat osoitetaan esittelemällä tulokset yrityksen työntekijöille tehdystä kyselystä, joka toteutettiin osana tätä diplomityötä. Ratkaisu näihin ongelmiin esitellään keskitetyn salasanojenhallintajärjestelmän muodossa. Järjestelmän eri ominaisuuksia arvioidaan ja kokeilu -tyyppinen toteutus rakennetaan osoittamaan tällaisen järjestelmän toiminnallisuus.
Resumo:
Langattomien lähiverkkotekniikoiden käyttö on yleistynyt nopeasti viime vuosina. Varsinkin IEEE:n 802.11b-standardi on ollut suosittu. Tätä tekniikkaa on käytetty myös alueellisten access-verkkojen rakentamiseen. Tämä työ on tehty hankkeeseen, jossa tutkitaan langattoman lähiverkkotekniikan käyttöä operaattoririippumattoman kaupunkiverkon toteuttamiseen. Työssä tutkittiin langattoman lähiverkkotekniikan vaikutusta verkon käyttäjän tietoturvaan ja pyrittiin löytämään avoimeen kaupunkiverkkoon sopiva ratkaisu, joka parantaa käyttäjän tietoturvaa. Työssä käsitellään aluksi tietoturvan teoriaa ja langattomuuden vaikutusta tietoturvaan. Hankkeessa käytetty langaton lähiverkkotekniikka IEEE 802.11b ja sen tietoturvaominaisuudet esitellään. Tutustutaan myös lyhyesti muutamiin julkisiin, 802.11b-tekniikkaa käyttäviin verkkoihin, sekä niiden tietoturvaratkaisuihin. Työssä esitellään tuote, jolla pyrittiin parantamaan käyttäjien tietoturvaa hankkeen verkossa. Lisäksi kuvaillaan tuotteen asennus testiverkkoon. Testiverkon käyttöperiaatteiden perusteella päädyttiin tulokseen olla ottamatta testattua tuotetta käyttöön, vaikka tuote sinällään oli teknisesti toimiva.
Resumo:
Ohjelmistojen tietoturva on noussut viime aikoina entistä tärkeämpään rooliin. Ohjelmistojen suunnittelu pitää alusta alkaen hoitaa siten, että tietoturva tulee huomioitua. Ohjelman helppokäyttöisyys ei saisi ajaa tietoturvan edelle, eikä myöskään ohjeiden lukematta jättäminen saa tarkoittaa tietoturvan menetystä. Tärkeä osa ohjelmistojen tietoturvaa on myös ohjelmiston laillinen käyttö. Se miten laiton käyttö estetään sen sijaan on erittäin vaikeaa toteuttaa nykyjärjestelmissä. Työn tarkoituksena oli tutkia Intellitel Communications Oy:n sanomayhdyskäytävää, Intellitel Messaging Gateway, tuotetietoturvan näkökulmasta, löytää sieltä mahdolliset virheet ja myös korjata ne.
Resumo:
Tämä työ on tehty Fingrid Oyj:lle. Työn tavoitteena oli tutkia, miten reaaliaikaista PMU-mittaustietoa voidaan hyödyntää voimajärjestelmän valvonnassa. Voimajärjestelmän dynaamisia ilmiöitä ovat jännite- ja kulmastabiilius. Työssä tutkittiin voimajärjestelmän kulmastabiiliutta PSS/E-ohjelmalla simuloitujen mittaustulosten perusteella. Fouriermuunnoksen tulokset osoittavat, että huonoiten vaimeneva taajuuskomponentti on 0,3 Hz taajuus. Lisäksi tiedetään, että huonosti vaimeneva taajuuskomponentti rajoittaa siirtokapasiteettia. Voimajärjestelmän stabiiliutta voidaan esittää Wide Area Monitoring -järjestelmien (WAMS) avulla. WAMS perustuu Phasor Measurement -laitteen (PMU) reaaliaikaiseen mittaustekniikkaan. Jännitteen vaihekulman mittaaminen mahdollistaa voimajärjestelmän tilan määrittämisen reaaliajassa. Työssä on esitelty Fingridin käytössä oleva WAMS ja lisäksi esitelty kolmen eri laitetoimittajan WAMS:n rakennetta ja operaattorin käyttöön tarkoitettuja käyttöliittymiä. WAMS:n rakenteet ovat pääpiirteittäin samanlaisia, mutta stabiiliuden visuaalisessa esittämisessä on eroja. PMU -mittaustietoja on mahdollista tuoda käytönvalvontajärjestelmään erillisellä tiedonsiirtoprotokollalla. PMU-mittaustiedon hyödyntäminen käytönvalvontajärjestelmän toimintaaluenäytöllä mahdollistaa verkon tilan esittämisen reaaliajassa. Roottorin kulmastabiilius esitetään Fingridin käytönvalvontajärjestelmässä vaihekulmaerojen avulla ja työssä on esitetty, kuinka vaihekulmaeron arvolla on vaikutus tehonsiirtoon. Vaihekulmaeron arvo kuvaa vian jälkeisen tehoheilahtelun voimakkuutta. PMU-mittaustiedon esittäminen antaa operaattorille selkeämmän kuvan ylläpitää tehonsiirto turvallisella tasolla ja epästabiilin heilahtelun havainnoiminen vähentää suurhäiriön riskiä. Tulevaisuudessa siirtoverkon kehittyessä tarvitaan operaattorin käyttöön myös nopeita stabiilisuutta esittäviä työkaluja.