925 resultados para web user interface


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dissertação de mestrado integrado em Engenharia Eletrónica Industrial e Computadores

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’objectiu principal d’aquest projecte és crear un sistema que permeti generar i gestionar un mapa de navegació interactiu per a la web i per qualsevol àmbit. Per aconseguir-ho, el projecte està dividit en dos parts: el mapa de navegació i el gestor de continguts. La primera part és una interfície gràfica on hi hauran diferents menús amb les seves categories, cadascuna amb els seus filtres, i per últim, un menú per seleccionar diferents nivells de zoom. El gestor de continguts, la segona part del projecte, és l’eina que permet gestionar via web tots els aspectes relacionats amb la configuració del mapa i la gestió de continguts (menús, punts del mapa, punts d’interès i rutes).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En aquest projecte es visualitza la trajectòria d'un vehicle (aeri o terrestre) en una pàgina web. Per això es disposa d'una PDA (Personal Digital Assistant), en la qual es té informació actualitzada de la posició i de la velocitat d’aquest vehicle. Aquestes dades són obtingudes d'un sistema que combina la navegació inercial i el GPS (Global Position System), els quals estimen de manera precisa la trajectòria del vehicle. A fi d'oferir una visualització en temps real, versàtil, accessible i amigable a l'usuari de la trajectòria del vehicle, s'ha desenvolupat un sistema de visualització on-line que proporciona un millor rendiment en comparació amb la qual es venia fent en la PDA. Per a dur-lo a terme s'implementa una interfície d'usuari en la PDA que ens permet transmetre aquesta informació via WIFI a la pàgina web, d'igual forma al servidor web es crea una interfície que interpreta i gestiona aquestes dades per a posteriorment ser graficats a Google Maps.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This paper presents a webservice architecture for Statistical Machine Translation aimed at non-technical users. A workfloweditor allows a user to combine different webservices using a graphical user interface. In the current state of this project,the webservices have been implemented for a range of sentential and sub-sententialaligners. The advantage of a common interface and a common data format allows the user to build workflows exchanging different aligners.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Työssä tutkittiin tehokasta tietojohtamista globaalin metsäteollisuusyrityksen tutkimus ja kehitys verkostossa. Työn tavoitteena oli rakentaa kuvaus tutkimus ja kehitys sisällön hallintaan kohdeyrityksen käyttämän tietojohtamisohjelmiston avulla. Ensin selvitettiin käsitteitä tietämys ja tietojohtaminen kirjallisuuden avulla. Selvityksen perusteella esitettiin prosessimalli, jolla tietämystä voidaan tehokkaasti hallita yrityksessä. Seuraavaksi analysoitiin tietojohtamisen asettamia vaatimuksia informaatioteknologialle ja informaatioteknologian roolia prosessimallissa. Verkoston vaatimukset tietojohtamista kohtaan selvitettiin haastattelemalla yrityksen avainhenkilöitä. Haastatteluiden perusteella järjestelmän tuli tehokkaasti tukea virtuaalisten projektiryhmien työskentelyä, mahdollistaa tehtaiden välinen tietämyksen jakaminen ja tukea järjestelmään syötetyn sisällön hallintaa. Ensiksi järjestelmän käyttöliittymän rakenne ja salaukset muokattiin vastaamaan verkoston tarpeita. Rakenne tarjoaa työalueen työryhmille ja alueet tehtaiden väliseen tietämyksen jakamiseen. Sisällönhallintaa varten järjestelmään kehitettiin kategoria, profiloitu portaali ja valmiiksi määriteltyjä hakuja. Kehitetty malli tehostaa projektiryhmien työskentelyä, mahdollistaa olemassa olevan tietämyksen hyväksikäytön tehdastasolla sekä helpottaa tutkimus ja kehitys aktiviteettien seurantaa. Toimenpide-ehdotuksina esitetään järjestelmän integrointia tehtaiden operatiivisiin ohjausjärjestelmiin ja ohjelmiston käyttöönottoa tehdastason projektinhallinta työkaluksi.Ehdotusten tavoitteena on varmistaa sekä tehokas tietämyksen jakaminen tehtaiden välillä että tehokas tietojohtaminen tehdastasolla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Käyttöliittymä on rajapinta käyttäjän ja järjestelmän tarjoamien toimintojen välillä ja sen toimivuus vaikuttaa toimintojen suorittamiseen joko positiivisesti tai negatiivisesti. Täten sovelluksen suunnitteluvaiheessa on hyvä arvioida käyttöliittymän ja sen toimintojen laatua ja kokeilla ideoiden toimivuutta rakentamalla asiasta prototyyppejä. Prototypoinnilla voidaan tunnistaa ja korjata mahdolliset ongelmat jo suunnittelupöydällä. Tämä diplomityö käsittelee Web-sovelluksen kehityksen aikana toteutettua käyttöliittymän ja sen toimintojen prototypointia. Käyttöliittymien mallintamista voidaan toteuttaa erilaisilla menetelmillä, joita työssä käydään läpi teknologisista näkökulmista eli miten prototypointimenetelmiä voidaan soveltaa projektin eri vaiheissa. Prototypoinnin apuna käytettäviin työkaluihin luodaan lyhyt katsaus esitellen yleisellä tasolla muutamia eri sovelluskategorian ohjelmistoja ja lisäksi käsitellään suunnittelumallien hyödyntämistä. Työ osoittaa, että yleisiä prototypointimenetelmiä ja -periaatteita voidaan soveltaa Web-sovellusten prototypoinnissa. Prototypointi on hyödyllistä aloittaa luonnostelemalla ja jatkaa aikaisessa vaiheessa HTML-malleihin, joilla päästään lähelle toteutuksen teknologioita ja mallintamaan sovelluksen luonnetta, ilmettä, tuntumaa ja vuorovaikutusta. HTML-prototyypeistä voidaan jalostaa sekoitetun tarkkuuden malleja ja ne toimivat toteutuksen perustana. Jatkokehityksessä ideoita voidaan esittää useilla eri tarkkuuden tekniikoilla.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Browsing the web has become one of the most important features in high end mobile phones and in the future more and more people will be using mobile phone for web browsing. Large touchscreens improve browsing experience but many web sites are designed to be used with a mouse. A touchscreen differs substantially from a mouse as a pointing device and therefore mouse emulation logic is required in the browsers to make more web sites usable. This Master's thesis lists the most significant cases where the differences of a mouse and a touchscreen affect web browsing. Five touchscreen mobile phones and their web browsers were evaluated to find out if and how these cases are handled in them. Also as a part of this thesis, a simple QtWebKit based mobile web browser with advanced mouse emulation model was implemented, aiming to solve all the problematic cases. The conclusion of this work is that it is feasible to emulate a mouse with a touchscreen and thus deliver good user experience in mobile web browsing. However, current highend touchscreen mobile phones have relatively underdeveloped mouse emulations in their web browsers and there is a lot to improve.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

IT-järjestelmillä on tärkeä rooli organisaation liiketoiminnassa. Koska organisaation liiketoimintavaatimukset ja strategia muuttuvat ympäröivän maailman mukaan, täytyy järjestelmän arkkitehtuurin sopeutua vallitsevaan tilanteeseen sekä mahdollisiin muutoksiin lyhyellä ja pitkällä aikavälillä. Modernin web-sovelluksen arkkitehtuuri sopeutuu organisaation liiketoiminnan haasteisiin. Erityisesti hallinnolliseksi ongelmaksi organisaatiossa muodostuvat Windows-sovellukset, koska niiden ylläpito sitoo henkilöresursseja ja niiden käyttökonteksti on rajallinen. Tästä syystä organisaatiot ovat käyneet etsimään ratkaisuja kuinka korvata Windows-sovellukset web-sovelluksilla. Kustannustehokas ratkaisu on modernisoida Windows-sovelluksen käyttöliittymä web-sovellukseksi. Tämän diplomityön tavoitteena oli laatia Logica Suomi Oy yritykselle viitearkkitehtuuri Win-dows-sovelluksen käyttöliittymän modernisoimiseksi web-sovellukseksi. Työ suoritettiin Proof of Concept projektissa, jossa modernisointiin Logican pääkäyttäjäsovellus. Työn tarkoituksena oli tunnistaa laajalti käytetyt arkkitehtuurimallit ja menetelmät jotka mahdollistavat modernisoinnin toteutuksen. Lisäksi tarkoitus oli tunnistaa menetelmät ja ohjelmistot jotka mahdollistavat kustannustehokkaan ja laadukkaan web-sovelluksen kehittämisen ja toteuttamisen. Työn osatavoitteena oli laatia modernisoitavan pääkäyttäjäsovelluksen kokonaisarkkitehtuuri. Työn tuloksena saatiin viitearkkitehtuuri jota voidaan käyttää ja hyödyntää ohjelmistokehitysprojekteissa, asiakkaan dokumentaatiossa, myynnissä ja markkinoinnissa. Viitearkkitehtuurissa on esitelty modernit web-teknologiat joilla on mahdollista toteuttaa web-sovellus jonka käyttökokemus vastaa Windows-sovellusta. Lisäksi tuloksena saatiin pääkäyttäjäsovelluksen kokonaisarkkitehtuuri, jonka tärkeimpiä tuloksia ovat modernisoinnin tavoitetila ja sovellusarkkitehtuuri. Tärkeimpiä jatkotoimenpiteitä ovat viitearkkitehtuuriin pohjautuvan modernisointiviitekehyksen laadinta sekä modernisointiprojektin arviointiin käytettävien mittareiden määrittely, suunnittelu ja toteutus. Relevanttien mittareiden avulla voidaan todeta, vastaako modernisoitu sovellus organisaation liiketoimintavaatimuksia ja strategiaa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In the beginning of its 10th year of existence Facebook has engaged and connected 1.2 billion monthly active users. This article-based dissertation Disconnect.Me – User Engagement and Facebook approaches this engagement from the opposite direction: disconnection. The research articles focus on social media specific phenomena including leaving Facebook, tactical media works such as Web 2.0 SuicideMachine, memorializing dead Facebook users and Facebook trolling. The media theoretical framework for this study is built around affect theory, software studies, biopolitics as well as different critical studies of new media. The argument is that disconnection is a necessary condition of social media connectivity and exploring social media through disconnection – as an empirical phenomenon, future potential and theoretical notion – helps us to understand how users are engaged with social media, its uses and subsequent business models. The results of the study indicate that engagement is a relation that precedes user participation, a notion often used to conceptualize social media. Furthermore, this engagement turns the focus from users’ actions towards the platform and how the platform actively controls users and their behavior. Facebook aims to engage new users and maintain the old ones by renewing its platform and user interface. User engagement with the platform is thus social but also technical and affective. When engaged, the user is positioned to algorithmic connectivity where machinc processes mine user data. This data is but sold also used to affect and engage other users. In the heart of this study is the notion that our networked engagements matter and disconnection can bring us to the current limits of network culture.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

À l’ère du web 2.0, l’usage des sites web se multiplie et génère de nouveaux enjeux. La satisfaction en rapport à l’interactivité, facteur d’efficacité des sites, détermine la popularité, et donc la visibilité de ceux-ci sur la Toile. Par conséquent, dans cette étude, nous considérons que les utilisateurs ont un rôle à jouer lors du processus de conception de ces derniers. Certes, autant en théorie que dans la pratique, les concepteurs semblent bel et bien tenir compte des utilisateurs; toutefois, ils ne les intègrent pas comme participants actifs dans leurs démarches. Cette étude vise au moyen d’une recherche documentaire et d’observations sur le terrain à comprendre les principales catégories et morphologies des sites web ainsi que les usages qui en découlent. Une analyse des diverses démarches de conception et des perceptions et attentes des internautes est réalisée sur la base de ces résultats. Pour répondre à ces objectifs, cette analyse cible deux catégories de sites réalisés par des professionnels et par des amateurs. Celle-ci nous permet de démontrer que les résultats de chacune de ces démarches, exprimés à travers les interfaces graphiques des sites, diffèrent au niveau de la qualité perceptible. Cette étude souligne également l’importance d’un traitement efficace de la communication graphique des éléments des sites web, afin de structurer la lecture et transmettre au final un message clair et compréhensible aux internautes. Dans le but consolider nos propositions, nous faisons référence à deux théories de communication graphique, la Gestalt et la sémiotique, l’une s’intéressant à la perception visuelle, l’autre à l’interprétation des signes. Celles-ci se sont révélées pertinentes pour analyser la qualité et l’efficacité des éléments de contenus. Notre étude révèle que les participants ne sont pas satisfaits des deux sites testés car l’utilisabilité du site conçu par des professionnels est trop complexe et l’interface du site conçu par un amateur manque de professionnalisme et de cohérence. Ces résultats soulignent la pertinence d’une approche centrée sur l’utilisateur pour la conception de sites web, car elle permet d’identifier et de résoudre des erreurs de conception. Nos résultats permettent également de souligner que les professionnels ayant un savoir technique et théorique se démarquent des amateurs au niveau des intervenants, des outils et des limites. Des pistes de solution, via des critères de design centré sur l’utilisateur, sont proposées à la fin de cette étude dans le but d’optimiser la qualité et l’efficacité des interfaces graphiques web.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

ka-Map ("ka" as in ka-boom!) is an open source project that is aimed at providing a javascript API for developing highly interactive web-mapping interfaces using features available in modern web browsers. ka-Map currently has a number of interesting features. It sports the usual array of user interface elements such as: interactive, continuous panning without reloading the page; keyboard navigation options (zooming, panning); zooming to pre-set scales; interactive scalebar, legend and keymap support; optional layer control on client side; server side tile caching

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This work presents an User Interface (UI) prototypes generation process to the softwares that has a Web browser as a plataform. This process uses UI components more complex than HTML elements. To described this components more complex this work suggest to use the XICL (eXtensinble User Interface Components Language). XICL is a language, based on XML syntax, to describe UI Components and IUs. XICL promotes extensibility and reusability in the User Interface development process. We have developed two compiler. The first one compiles IMML (Interactive Message Modeling Language) code and generates XICL code. The second one compiles XICL code and generates DHTML code

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Pós-graduação em Design - FAAC