994 resultados para programmazione asincrona, JavaScript, Web app, jQuery, Node.js
Resumo:
App Android para móviles, centraliza todas las competiciones deportivas, como carreras de running, medias maratones, maratones, Cross, duatlones, triatlones, carreras de Bicis,¿ permite a los deportistas estar informados en todo momento de las competiciones(o eventos) disponibles, mostrar información sobre ellas, incluso dar acceso a su web.
Resumo:
L'objectiu principal d'aquest treball es estudiar la plataforma Google App Engine en la seva versió en Phyton. Per a estudiar i provar la plataforma, s'ha desenvolupat una aplicació web de programari lliure que permet la publicació de blogs de viatges. Aquesta aplicació està desenvolupada sobre Django i s'integra amb altres serveis de Google com l'autenticació amb els seus comptes Google Maps o Picasa Web Albums.
Resumo:
In this research work we searched for open source libraries which supports graph drawing and visualisation and can run in a browser. Subsequent these libraries were evaluated to find out which one is the best for this task. The result was the d3.js is that library which has the greatest functionality, flexibility and customisability. Afterwards we developed an open source software tool where d3.js was included and which was written in JavaScript so that it can run browser-based.
Resumo:
WebGraphEd is an open source software for graph visualization and manipulation. It is especially designed to work for the web platform through a web browser. The web application has been written in JavaScript and compacted later, which makes it a very lightweight software. There is no need of additional software, and the only requirement is to have an HTML5 compliant browser. WebGraphEd works with scalable vector graphics (SVG), which it makes possible to create lossless graph drawings.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
El projecte realitzat procura una aproximació real al desenvolupament amb dispositius Android. La funció principal de l'aplicació desenvolupada és consultar les dades meteorològiques utilitzant un web service i l'actual posició GPS.
Resumo:
Projecte per al desenvolupament d'una aplicació per a dispositius Android, per al departament de turisme del Consell Comarcal de l'Alt Camp. Amb aquesta aplicació es vol proporcionar informació turística de la comarca. Amb aquest projecte també es vol desenvolupar un entorn web, per tal de poder accedir a la informació turística amb un navegador web, o des d'uns punts d'informació tàctils, dels que ja en disposa actualment el Consell Comarcal.
Resumo:
Dissenyar i implementar una eina web que a partir de les dades recollides en el camp d'experimentació, les gestioni i les tracti adequadament per poder visualitzar-les a la pantalla a través d'una gràfica
Resumo:
En la societat en què vivim cada vegada agafen més importància les pàgines web, ja que és una eina d’informació molt útil i ràpida de consultar. Per això, no s’entén que una activitat empresarial sigui del tipus que sigui, no tingui representació a la xarxa. No és necessari que l’activitat en qüestió hagi de vendre productes a través d’Internet, sinó que simplement aquesta representació pot ajudar a donar a conèixer l’empresa i a ampliar la cartera de clients. De la mateixa manera, els dispositius mòbils també s’estan convertint en una eina important en la societat d’avui en dia i una bona aplicació pot aportar-te un avantatge en moltes de les feines diàries de les persones. D’aquestes idees sorgeix el projecte de fer la web i l’aplicació pel centre de fisioteràpia Fisioripoll. La web serviria per tenir un lloc a la xarxa on donar-se a conèixer i poder captar nous clients, i l’aplicació funcionaria com a eina pel propi centre, seria una espècie d’agenda electrònica per saber les hores que tens reservades els pròxims dies. Per aconseguir un bon funcionament de la web, s’ha demanat que la pàgina sigui administrable en els seus continguts. És a dir, que els propis gestors del centre puguin canviar els texts, les imatges dels diferents apartats i gestionar les reserves dels clients. En canvi, l’aplicació serà només una eina de consulta i no s’hauria de gestionar res. Per tal de dur a terme aquesta web s’ha tingut en compte utilitzar eines de programació de distribució lliure com és el llenguatge PHP, la base de dades MySQL, jQuery, el framework Phonegap per tal de poder construir una web i una aplicació amb cost de programari nul.
Resumo:
Vivim en una era digital on cada vegada més les persones estem connectades a la xarxa, ja sigui a través del mòbil, ordinadors o altres dispositius. Actualment internet és un gran aparador i des de fa temps, les empreses han vist en aquest una manera de treure’n profit. És per això, junt amb el seu baix cost, que fa que qualsevol empresa disposi del seu propi espai a la xarxa. D’aquestes idees sorgeix el projecte de fer la web per AutoSuministres Motor. La principal funció de la web es donar-se a conèixer i ensenyar els seus productes, que en aquest cas, són autocaravanes i caravanes. Tot i així, la pàgina web contindrà un espai de reportatges on l’usuari podrà conèixer més a fons un model concret d’autocaravana o caravana i on també podrà demanar més informació mitjançant un formulari de contacte. Per tant, la pàgina web serà totalment administrable perquè els comercials puguin introduir els vehicles corresponents i l’usuari final pugui consultarlos correctament d’una manera fàcil i senzilla. Per tal de dur a terme aquesta web s’ha tingut en compte utilitzar eines de programació de distribució lliure com és el llenguatge PHP, la base de dades MySQL i jQuery.
Resumo:
Workshop at Open Repositories 2014, Helsinki, Finland, June 9-13, 2014
Resumo:
HTML5-tekniikka sekä Javascript tuen laajuus selaimissa vaihtelee. Tässä työssä kyseisiä tekniikoita tutkitaan ja selvitetään niiden toimivuus keräilykorttipelin tarvittavien ominaisuuksien osalta. Tuet kartoitetaan viiden yleisimmän selaimen osalta. HTML5 tukee WebSocket-ominaisuutta, mutta kaikki selaimet eivät tue ominaisuutta tai se on poistettu käytöstä. Työssä etsitään tiedonsiirtotekniikan korvaaja, jota testataan ja verrattaan yleisesti käytettäviin tekniikoihin. Socket.io oli nopea tekniikka ja viisi yleisintä selainta tuki kyseistä tekniikkaa. Tämän vuoksi Socket.io-tekniikka soveltuu keräilykorttipeliin hyvin. Työssä tutkitaan keräilykorttipeliin liittyviä ongelmia sekä ratkaistaan ilmenneet ongelmat. Keräilykorttipelissä kyseisiä ongelmia ilmeni hyvin vähän. HTML5 animaatio tutkitaan että se on optimoitu hyvin, jotta käyttäjälle tulee miellyttävä peli kokemus. Keräilykorttipeliin lisäksi tehdään käytännön toteutuksena pakkaeditorin prototyyppi, jossa käytetään drag&drop-tekniikkaa. Tämän vuoksi myös drag&drop-tekniikan tuki on selainten osalta kartoitettu myös työssä, sekä testattu käytännön toteutuksena prototyypissä. Prototyypin tarkoitus on kartoittaa mahdolliset tulevat ongelmat sekä auttaa varsinaisen pakkaeditorin tuotantoversiossa.
Resumo:
La compréhension des objets dans les programmes orientés objet est une tâche impor- tante à la compréhension du code. JavaScript (JS) est un langage orienté-objet dyna- mique, et son dynamisme rend la compréhension du code source très difficile. Dans ce mémoire, nous nous intéressons à l’analyse des objets pour les programmes JS. Notre approche construit de façon automatique un graphe d’objets inspiré du diagramme de classes d’UML à partir d’une exécution concrète d’un programme JS. Le graphe résul- tant montre la structure des objets ainsi que les interactions entre eux. Notre approche utilise une transformation du code source afin de produire cette in- formation au cours de l’exécution. Cette transformation permet de recueillir de l’infor- mation complète au sujet des objets crées ainsi que d’intercepter toutes les modifications de ces objets. À partir de cette information, nous appliquons plusieurs abstractions qui visent à produire une représentation des objets plus compacte et intuitive. Cette approche est implémentée dans l’outil JSTI. Afin d’évaluer l’utilité de l’approche, nous avons mesuré sa performance ainsi que le degré de réduction dû aux abstractions. Nous avons utilisé les dix programmes de réfé- rence de V8 pour cette comparaison. Les résultats montrent que JSTI est assez efficace pour être utilisé en pratique, avec un ralentissement moyen de 14x. De plus, pour 9 des 10 programmes, les graphes sont suffisamment compacts pour être visualisés. Nous avons aussi validé l’approche de façon qualitative en inspectant manuellement les graphes gé- nérés. Ces graphes correspondent généralement très bien au résultat attendu. Mots clés: Analyse de programmes, analyse dynamique, JavaScript, profilage.
Resumo:
L’observation de l’exécution d’applications JavaScript est habituellement réalisée en instrumentant une machine virtuelle (MV) industrielle ou en effectuant une traduction source-à-source ad hoc et complexe. Ce mémoire présente une alternative basée sur la superposition de machines virtuelles. Notre approche consiste à faire une traduction source-à-source d’un programme pendant son exécution pour exposer ses opérations de bas niveau au travers d’un modèle objet flexible. Ces opérations de bas niveau peuvent ensuite être redéfinies pendant l’exécution pour pouvoir en faire l’observation. Pour limiter la pénalité en performance introduite, notre approche exploite les opérations rapides originales de la MV sous-jacente, lorsque cela est possible, et applique les techniques de compilation à-la-volée dans la MV superposée. Notre implémentation, Photon, est en moyenne 19% plus rapide qu’un interprète moderne, et entre 19× et 56× plus lente en moyenne que les compilateurs à-la-volée utilisés dans les navigateurs web populaires. Ce mémoire montre donc que la superposition de machines virtuelles est une technique alternative compétitive à la modification d’un interprète moderne pour JavaScript lorsqu’appliqué à l’observation à l’exécution des opérations sur les objets et des appels de fonction.
Resumo:
Tecnigral, S.L (consultoría medioambiental) ha buscado, desde su origen, apoyar a los técnicos en la gestión diaria de servicios urbanos. ¿Cómo? Proporcionándoles tanto software de gestión como servicios de análisis y de control de calidad. Desde 2006 hemos desarrollado una docena de proyectos de gestión SIG utilizando MapServer para generar las imágenes cartográficas. Una de las demandas que hemos recibido es la de poder editar (desde el mismo entorno, con suficiente precisión y sencillez) la información cartográfica gestionada. Frente a esta demanda nuestra propuesta de solución ha sido desarrollar una aplicación web con las siguientes características: • Reutilizar al máximo el software ya existente. (MapServer, como servidor de cartografía [y su capacidad de acceso a fuentes de datos vectoriales] y VML de Internet Explorer como gestor vectorial en el cliente web) • Evitar cualquier tipo de instalación en los clientes. Al utilizar, sobre IE, el formato VML (Para FireFox tenemos previsto utilizar SVG) el único requerimiento es tener activo javaScript. • Precisión métrica elevada. VML permite obtener mediciones con precisión centimétrica. • Contar con funciones de navegación, medición, alta de elementos puntuales, lineales, superficiales y rótulos. Edición de vértices, duplicación y desplazamiento de elementos, etc. • Todo el desarrollo, desde la parte cliente está realizado con javaScript y aprovecha la flexibilidad de AJAX. El citado Sistema de edición cartográfica (que empezamos a desarrollar a principio de 2007) se está aplicando en el proyecto GAVI, del departamento de Parques y Jardines del Ayuntamiento de Barcelona