994 resultados para web browser
Resumo:
Ohjelmistokehitys on monimutkainen prosessi. Yksi keskeisistä tekijöistä siinä on ohjelmistolle asetettavat vaatimukset. Näitä vaatimuksia on hyvin monenlaisia, ja eri tasoisia; toivotusta toiminnallisuudesta hyvinkin yksityiskohtaisiin vaatimuksiin. Näiden vaatimusten hallinta on myöskin hyvin monitahoista, vaikkakin se on kirjallisuudessa esitetty selkeänä prosessissa, joka on sarja toisistaan erottuviavaiheita. Työn painopiste oli näiden vaatimusten muutoksen ja valmiiseen ohjelmistoon kohdistuvan palautteen hallinnassa, ja kuinka vaatimustenhallintaohjelmisto voisi olla avuksi näissä prosesseissa. Vaatimustenhallintatyökalun käyttö ei sinällään ratkaise mitään ongelmia, mutta se suo puitteet parantaa vaatimusten hallitsemista. Työkalun käytöstä on muun muassa seuraavia etuja: vaatimusten keskitetty varastointi, käyttäjäoikeuksien määrittely koskien eri käyttäjiä ja heidän pääsyään näkemään tai muuttamaan tietoa, muutoksenhallintaprosessin hallinta, muutosten vaikutuksen analysointi ja jäljitettävyys ja pääsy tietoihin web-selaimella.
Resumo:
Tässä diplomityössä kuvataan sähköisen toimintajärjestelmän hallintaohjelmiston toteuttaminen yritysverkostojen käyttöön. Jokainen toimintajärjestelmän osa on kuvattu erikseen ja sitä vastaamaan on toteutettu oma osio, joka vastaa nykyisten standardien ja spesifikaatioiden vaatimuksiin. Tämän työn standardit ja spesifikaatiot ovat ISO 9001:2000 (laatustandardi), ISO 14001 (ympäristöstandardi) ja OHSAS 18001 (turvallisuusjärjestelmäspesifikaatio). Hallintaohjelmistolla pystytään ylläpitämään toimintajärjestelmän perusosat, joita ovat prosessikuvaukset, asiakirjat, raportit ja mittarit. Ohjelma toteutetaan servlet-tekniikalla web-ympäristöön. Tietokantaratkaisuna käytetään SQL:ää, joka sopii hyvin yhteen Javan kanssa. Käyttöliittymänä on selain, mikä osaltaan helpottaa käyttöönottoa yrityksissä, koska erillisiä asennuksia käyttäjien koneisiin ei tarvita. Ohjelma on tarkoitettu asennettavaksi yrityksen sisäverkkoon.
Resumo:
Tämä diplomityö käsittelee työterveys- ja työturvallisuushallinnan (TTT) sekä ympäristönsuojelun ongelmia ja riskejä, joita tehdasalueen toiminnanharjoittaja kohtaa ulkoistaessaan tehdastoimintojaan ja siirtyessään käyttämään 24 h ulkoisia kunnossapitopalveluja. Teoriaosa selventää ulkoistukseen liittyviä lainmukaisia määräyksiä ja vaatimuksia koskien terveyden, turvallisuuden ja ympäristöongelmien hallintaa sellu-, paperi- ja kartonkitehtaissa Euroopassa, Yhdysvalloissa ja Suomessa. TTT-toiminnan tason sekä ympäristönsuojelun tason mittaamisen ongelmat tuodaan esille. Olemassa olevia kansainvälisiä TTT-johtamisjärjestelmien ja ympäristöjärjestelmien standardeja, riskien hallintatyökaluja ja ohjelmia esitellään lyhyesti. Käytännön osa toteutettiin tapaustutkimuksena, jonka kohteena oli Äänekosken tehdaskombinaatti ja kemianteollisuuden laitos, Noviant CMC Oy. TTT-hallintatoimien ja ympäristönsuojelun ongelmia tutkitaan tehdastoimintoja ulkoistettaessa. Integroidun johtamisjärjestelmän auditointimenettelyt, ulkoistuksen kohdealueet, pk-yrityksien riskien hallinta ja ulkoisten työntekijöiden turvallisuuskoulutus ovat erityisen tarkastelun alla. Käyttäen hyväksi kerättyä TTT- ja ympäristöaineistoa, suunniteltiin malli ja sisältöehdotus uudelle internet-selain tyyppiselle työkalulle TTT- ja ympäristöasioiden hallinnan avuksi. Työkalu on tarkoitettu palvelemaan Noviant CMC Oy:n eri sidosryhmien tarpeita. Diplomityön käytännön osa muodostaa pohjan JP MILLSAFE - pilottiprojektille, joka käynnistettiin internet-selain tyyppisen turvallisuuspalvelusovelluksen kehittämiseksi palvelemaan Äänekosken tehdaskombinaatin eri sidosryhmien tarpeita.
Resumo:
Parametriset NURBS-käyrät ja -pinnat ovat yleisiä työkaluja graafisessa mallinnuksessa, tietokoneavusteisessa suunnittelussa ja muissa sovelluksissa. NURBS-mallinnus on pääosin melko intuitiivista, mutta siinä on joitakin vaikeammin ymmärrettäviä osia. Ihminen oppii parhaiten tekemällä, minkä takia päätettiin tehdä interaktiivinen NURBS-opetussovelma, joka tutustuttaa käyttäjän NURBSien toimintaan. Sovelma toimii www-selaimessa Java-liitännäisen avulla ja hyödyntää Java OpenGL -grafiikkarajapintaa kolmiulotteisen grafiikan piirtämiseen. Sovelma on helppokäyttöinen ja opastaa käyttäjää NURBS-mallinnuksen eri osa-alueissa.
Resumo:
Cloud computing enables on-demand network access to shared resources (e.g., computation, networks, servers, storage, applications, and services) that can be rapidly provisioned and released with minimal management effort. Cloud computing refers to both the applications delivered as services over the Internet and the hardware and system software in the data centers. Software as a service (SaaS) is part of cloud computing. It is one of the cloud service models. SaaS is software deployed as a hosted service and accessed over the Internet. In SaaS, the consumer uses the provider‘s applications running in the cloud. SaaS separates the possession and ownership of software from its use. The applications can be accessed from any device through a thin client interface. A typical SaaS application is used with a web browser based on monthly pricing. In this thesis, the characteristics of cloud computing and SaaS are presented. Also, a few implementation platforms for SaaS are discussed. Then, four different SaaS implementation cases and one transformation case are deliberated. The pros and cons of SaaS are studied. This is done based on literature references and analysis of the SaaS implementations and the transformation case. The analysis is done both from the customer‘s and service provider‘s point of view. In addition, the pros and cons of on-premises software are listed. The purpose of this thesis is to find when SaaS should be utilized and when it is better to choose a traditional on-premises software. The qualities of SaaS bring many benefits both for the customer as well as the provider. A customer should utilize SaaS when it provides cost savings, ease, and scalability over on-premises software. SaaS is reasonable when the customer does not need tailoring, but he only needs a simple, general-purpose service, and the application supports customer‘s core business. A provider should utilize SaaS when it offers cost savings, scalability, faster development, and wider customer base over on-premises software. It is wise to choose SaaS when the application is cheap, aimed at mass market, needs frequent updating, needs high performance computing, needs storing large amounts of data, or there is some other direct value from the cloud infrastructure.
Resumo:
Workshop at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
HTML5-tekniikka sekä Javascript tuen laajuus selaimissa vaihtelee. Tässä työssä kyseisiä tekniikoita tutkitaan ja selvitetään niiden toimivuus keräilykorttipelin tarvittavien ominaisuuksien osalta. Tuet kartoitetaan viiden yleisimmän selaimen osalta. HTML5 tukee WebSocket-ominaisuutta, mutta kaikki selaimet eivät tue ominaisuutta tai se on poistettu käytöstä. Työssä etsitään tiedonsiirtotekniikan korvaaja, jota testataan ja verrattaan yleisesti käytettäviin tekniikoihin. Socket.io oli nopea tekniikka ja viisi yleisintä selainta tuki kyseistä tekniikkaa. Tämän vuoksi Socket.io-tekniikka soveltuu keräilykorttipeliin hyvin. Työssä tutkitaan keräilykorttipeliin liittyviä ongelmia sekä ratkaistaan ilmenneet ongelmat. Keräilykorttipelissä kyseisiä ongelmia ilmeni hyvin vähän. HTML5 animaatio tutkitaan että se on optimoitu hyvin, jotta käyttäjälle tulee miellyttävä peli kokemus. Keräilykorttipeliin lisäksi tehdään käytännön toteutuksena pakkaeditorin prototyyppi, jossa käytetään drag&drop-tekniikkaa. Tämän vuoksi myös drag&drop-tekniikan tuki on selainten osalta kartoitettu myös työssä, sekä testattu käytännön toteutuksena prototyypissä. Prototyypin tarkoitus on kartoittaa mahdolliset tulevat ongelmat sekä auttaa varsinaisen pakkaeditorin tuotantoversiossa.
Resumo:
This document describes how students can access polls using their own device (laptop, tablet or phone) using either a web browser or an iOS or Android app.
Resumo:
Compute grids are used widely in many areas of environmental science, but there has been limited uptake of grid computing by the climate modelling community, partly because the characteristics of many climate models make them difficult to use with popular grid middleware systems. In particular, climate models usually produce large volumes of output data, and running them usually involves complicated workflows implemented as shell scripts. For example, NEMO (Smith et al. 2008) is a state-of-the-art ocean model that is used currently for operational ocean forecasting in France, and will soon be used in the UK for both ocean forecasting and climate modelling. On a typical modern cluster, a particular one year global ocean simulation at 1-degree resolution takes about three hours when running on 40 processors, and produces roughly 20 GB of output as 50000 separate files. 50-year simulations are common, during which the model is resubmitted as a new job after each year. Running NEMO relies on a set of complicated shell scripts and command utilities for data pre-processing and post-processing prior to job resubmission. Grid Remote Execution (G-Rex) is a pure Java grid middleware system that allows scientific applications to be deployed as Web services on remote computer systems, and then launched and controlled as if they are running on the user's own computer. Although G-Rex is general purpose middleware it has two key features that make it particularly suitable for remote execution of climate models: (1) Output from the model is transferred back to the user while the run is in progress to prevent it from accumulating on the remote system and to allow the user to monitor the model; (2) The client component is a command-line program that can easily be incorporated into existing model work-flow scripts. G-Rex has a REST (Fielding, 2000) architectural style, which allows client programs to be very simple and lightweight and allows users to interact with model runs using only a basic HTTP client (such as a Web browser or the curl utility) if they wish. This design also allows for new client interfaces to be developed in other programming languages with relatively little effort. The G-Rex server is a standard Web application that runs inside a servlet container such as Apache Tomcat and is therefore easy to install and maintain by system administrators. G-Rex is employed as the middleware for the NERC1 Cluster Grid, a small grid of HPC2 clusters belonging to collaborating NERC research institutes. Currently the NEMO (Smith et al. 2008) and POLCOMS (Holt et al, 2008) ocean models are installed, and there are plans to install the Hadley Centre’s HadCM3 model for use in the decadal climate prediction project GCEP (Haines et al., 2008). The science projects involving NEMO on the Grid have a particular focus on data assimilation (Smith et al. 2008), a technique that involves constraining model simulations with observations. The POLCOMS model will play an important part in the GCOMS project (Holt et al, 2008), which aims to simulate the world’s coastal oceans. A typical use of G-Rex by a scientist to run a climate model on the NERC Cluster Grid proceeds as follows :(1) The scientist prepares input files on his or her local machine. (2) Using information provided by the Grid’s Ganglia3 monitoring system, the scientist selects an appropriate compute resource. (3) The scientist runs the relevant workflow script on his or her local machine. This is unmodified except that calls to run the model (e.g. with “mpirun”) are simply replaced with calls to "GRexRun" (4) The G-Rex middleware automatically handles the uploading of input files to the remote resource, and the downloading of output files back to the user, including their deletion from the remote system, during the run. (5) The scientist monitors the output files, using familiar analysis and visualization tools on his or her own local machine. G-Rex is well suited to climate modelling because it addresses many of the middleware usability issues that have led to limited uptake of grid computing by climate scientists. It is a lightweight, low-impact and easy-to-install solution that is currently designed for use in relatively small grids such as the NERC Cluster Grid. A current topic of research is the use of G-Rex as an easy-to-use front-end to larger-scale Grid resources such as the UK National Grid service.
Resumo:
In the decade since OceanObs `99, great advances have been made in the field of ocean data dissemination. The use of Internet technologies has transformed the landscape: users can now find, evaluate and access data rapidly and securely using only a web browser. This paper describes the current state of the art in dissemination methods for ocean data, focussing particularly on ocean observations from in situ and remote sensing platforms. We discuss current efforts being made to improve the consistency of delivered data and to increase the potential for automated integration of diverse datasets. An important recent development is the adoption of open standards from the Geographic Information Systems community; we discuss the current impact of these new technologies and their future potential. We conclude that new approaches will indeed be necessary to exchange data more effectively and forge links between communities, but these approaches must be evaluated critically through practical tests, and existing ocean data exchange technologies must be used to their best advantage. Investment in key technology components, cross-community pilot projects and the enhancement of end-user software tools will be required in order to assess and demonstrate the value of any new technology.
Resumo:
Användning av molntjänster har gjort forensiska undersökningar mer komplicerade. Däremot finns det goda förutsättningar om molnleverantörerna skapar tjänster för att få ut all information. Det skulle göra det enklare och mer tillförlitligt. Informationen som ska tas ut från molntjänsterna är svår att få ut på ett korrekt sätt. Undersökningen görs inte på en skrivskyddad kopia, utan i en miljö som riskerar att förändras. Det är då möjligt att ändringar görs under tiden datan hämtas ut, vilket inte alltid syns. Det går heller inte att jämföra skillnaderna genom att ta hashsummor på filerna som görs vid forensiska undersökningar av datorer. Därför är det viktigt att dokumentera hur informationen har tagits ut, helst genom att filma datorskärmen under tiden informationen tas ut. Informationen finns sparad på flera platser då molntjänsterna Office 365 och Google Apps används, både i molnet och på den eller de datorer som har använts för att ansluta till molntjänsten. Webbläsare sparar mycket information om vad som har gjorts. Därför är det viktigt att det går att ta reda på vilka datorer som har använts för att ansluta sig till molntjänsten, vilket idag inte möjligt. Om det är möjligt att undersöka de datorer som använts kan bevis som inte finns kvar i molnet hittas. Det bästa ur forensisk synvinkel skulle vara om leverantörerna av molntjänster erbjöd en tjänst som hämtar ut all data som rör en användare, inklusive alla relevanta loggar. Då skulle det ske på ett mycket säkrare sätt, då det inte skulle gå att ändra informationen under tiden den hämtas ut.
Resumo:
DBMODELING is a relational database of annotated comparative protein structure models and their metabolic, pathway characterization. It is focused on enzymes identified in the genomes of Mycobacterium tuberculosis and Xylella fastidiosa. The main goal of the present database is to provide structural models to be used in docking simulations and drug design. However, since the accuracy of structural models is highly dependent on sequence identity between template and target, it is necessary to make clear to the user that only models which show high structural quality should be used in such efforts. Molecular modeling of these genomes generated a database, in which all structural models were built using alignments presenting more than 30% of sequence identity, generating models with medium and high accuracy. All models in the database are publicly accessible at http://www.biocristalografia.df.ibilce.unesp.br/tools. DBMODELING user interface provides users friendly menus, so that all information can be printed in one stop from any web browser. Furthermore, DBMODELING also provides a docking interface, which allows the user to carry out geometric docking simulation, against the molecular models available in the database. There are three other important homology model databases: MODBASE, SWISSMODEL, and GTOP. The main applications of these databases are described in the present article. © 2007 Bentham Science Publishers Ltd.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Neste trabalho, propõe-se uma melhoria na estratégia de escalonamento baseada em pesos das classes de tráfego em redes óticas passivas Ethernet – EPON, de modo a não penalizar demasiadamente a classe tipo melhor esforço (BE). Como suporte, desenvolveu-se um modelo híbrido analítico/simulado para análise de desempenho do fluxo de subida, baseado no atraso total de quadros. A modelagem foi feita utilizando Redes de Petri Coloridas Estocásticas (Stochastic Colored Petri Nets - SCPN) da qual se obtém, por simulação, o tamanho médio da fila que posteriormente é usado para, analiticamente, obter-se o atraso total. Não obstante ao crescimento de aplicações multimídia em tempo real, no ano de 2010, o tráfego tradicional na Internet (navegação web, email, mensagens instantâneas) classificado como melhor esforço ainda foi responsável, sozinho (excluindo transferência de arquivos P2P), por valores em torno de 18% do tráfego na Internet. Somando-se a este percentual as aplicações P2P, que também não são essencialmente sensíveis ao atraso, têm-se uma participação de 58% (o tráfego P2P foi no ano de 2010 responsável por aproximadamente 40% do volume total de informações trafegadas na Internet). Mesmo em previsões feitas para o ano de 2014 o tráfego BE ainda representará aproximadamente 40% do volume total de dados a serem trafegados nas redes IPs mundiais. Estes números demonstram que a preocupação com este tipo de tráfego não pode ser relegada a uma importância secundária em detrimento às aplicações que exigem maior qualidade de serviço. Tomando como base o escalonamento IPACT (Interleaved Polling with Adapting Cycle Time) esta dissertação demonstra que é possível, através da melhoria proposta, obter atrasos menores no tráfego de melhor esforço, sem que as classes de tráfego prioritárias ultrapassem as especificações de atraso recomendadas para cada uma destas.
Resumo:
Il mondo di Internet ha vissuto un radicale e inarrestabile processo di rinnovamento nel corso dell'ultimo decennio. Nel giro di pochi anni, i siti che popolano il World Wide Web si sono evoluti divenendo vere e proprie applicazioni in grado di fornire un livello di interattività e di coinvolgimento fino ad allora impensabile. Il mondo del Web è mutato, e con esso quello dei browser, i quali assumono sempre più le conformazioni di "sistemi operativi nei sistemi operativi": si sono tramutati in complesse piattaforme di sviluppo in grado di fornire a programmatori e web designer potenti librerie e API relative a qualsiasi ambito, nonché avanzati strumenti di debugging. Numerosi standard che governano l'ecosistema di Internet hanno raggiunto la maturità in questo contesto: fra tutti HTML5, il quale ha arricchito enormemente le potenzialità di un browser introducendo nuovi strumenti orientati alla multimedialità e alla classificazione semantica delle risorse. Altri standard altrettanto importanti hanno visto la luce in questi anni, affermandosi e conquistando, nel giro di pochissimi anni, l'interesse di un'ampia platea di sviluppatori. E' il caso di WebGL, una potente e flessibile libreria grafica derivata dal mondo di OpenGL che ha aperto le porte al rendering di scene tridimensionali all'interno di un qualsiasi browser moderno. WebGL ha rappresentato un punto di svolta abbattendo un'ulteriore barriera tra il mondo del web che vive all'interno di un browser e la dimensione delle applicazioni native che popolano un sistema operativo, consolidando il già affermato concetto di web app che lentamente sta seppellendo l'idea di "sito" così come era stato concepito all'inizio del nuovo millennio. Scopo di questo elaborato è quello di fornire una panoramica delle principali funzionalità offerte dalla libreria WebGL (con una particolare attenzione per il supporto cross browser) e di analizzare le possibilità che essa offre, studiando e implementando i principali modelli di illuminazione e le tecniche di applicazione texture per definire un ambiente tridimensionale esplorabile e il più possibile realistico all'interno della dimensione del web.