998 resultados para Actor, Web, Dart, Javascript, Isolates
Resumo:
Aplicación web desarrollada en HTML, JavaScript y CSS para la gestión de riesgos en ríos mediante CartoDB.
Resumo:
L’objectiu del projecte és dissenyar, desenvolupar i implementar una aplicació web per a la gestió i control de les obres menors al municipi de l’Escala basada en programari lliure i que incorpori explícitament funcionalitat relacionada amb informació geogràfica. L’Organisme receptor és l’Ajuntament de l’Escala i els usuaris previstos són els ciutadans (comunicadors), els tècnics de l’Ajuntament (gestors) i la Policia municipal (controladors). L’aplicació desenvolupada queda distribuïda en tres interfícies: el Portal d’entrada on els usuaris trien el camí en funció de les seves necessitats i privilegis; els comunicadors poden consultar la normativa associada a les obres menors i accedir lliurement al formulari de comunicació, mentre que els gestors i controladors poden accedir al Visor cartogràfic via autenticació; el Formulari de comunicació de les obres menors on el comunicador disposa d’un mapa interactiu on marcar la situació de la seva obra i consultar dades cadastrals a més d’emplenar els camps requerits en la comunicació i, finalment, el Visor cartogràfic de l’Escala en què es despleguen funcionalitats diverses que van des de la navegació per mapes topogràfics, ortofotos, cadastral, etc., la cerca assistida d’adreces, parcel·les..., fins a l’edició de capes (entitats residents a bases de dades amb capacitat per emmagatzemar i gestionar informació geogràfica), la consulta d’atributs de capes pròpies i provinents de servidors externs, la impressió de mapes... El desenvolupament de l’aplicació s’ha realitzat íntegrament emprant javascript, php, html i css i les llibreries més habituals de codi obert i lliure distribució OpenLayers, GeoExt, Ext i jQuery
Resumo:
Winter maintenance, particularly snow removal and the stress of snow removal materials on public structures, is an enormous budgetary burden on municipalities and nongovernmental maintenance organizations in cold climates. Lately, geospatial technologies such as remote sensing, geographic information systems (GIS), and decision support tools are roviding a valuable tool for planning snow removal operations. A few researchers recently used geospatial technologies to develop winter maintenance tools. However, most of these winter maintenance tools, while having the potential to address some of these information needs, are not typically placed in the hands of planners and other interested stakeholders. Most tools are not constructed with a nontechnical user in mind and lack an easyto-use, easily understood interface. A major goal of this project was to implement a web-based Winter Maintenance Decision Support System (WMDSS) that enhances the capacity of stakeholders (city/county planners, resource managers, transportation personnel, citizens, and policy makers) to evaluate different procedures for managing snow removal assets optimally. This was accomplished by integrating geospatial analytical techniques (GIS and remote sensing), the existing snow removal asset management system, and webbased spatial decision support systems. The web-based system was implemented using the ESRI ArcIMS ActiveX Connector and related web technologies, such as Active Server Pages, JavaScript, HTML, and XML. The expert knowledge on snow removal procedures is gathered and integrated into the system in the form of encoded business rules using Visual Rule Studio. The system developed not only manages the resources but also provides expert advice to assist complex decision making, such as routing, optimal resource allocation, and monitoring live weather information. This system was developed in collaboration with Black Hawk County, IA, the city of Columbia, MO, and the Iowa Department of transportation. This product was also demonstrated for these agencies to improve the usability and applicability of the system.
Resumo:
O sistema educativo Cabo-verdiano é um universo constituído por escolas públicas e privadas, do nível pré-escolar ao nível do ensino superior. Dentro desse sistema nós vamos fundamentar os processos administrativos, que foca basicamente o processo de matrícula do aluno, no sistema de ensino vigente, até deixar o sistema, incluindo também o processo de emissão de certificados, visto que no acto das matrículas são requeridas certificados do ano transacto. A proposta de Integração, é a utilização do poder das tecnologias de comunicação e informação para interligar as instituições de ensino, de forma que a matricula dos alunos não seja algo cansativo com elevados processos burocráticos e custoso, para quem quer seguir os seus estudos, e também tornar a gestão do sistema mais simples. O trabalho irá focar basicamente o objecto aluno, e todos os níveis de ensino, porque o aluno é o actor no sistema, quem irá interagir (Inscrever, solicitar, transferir e ser avaliado) nos diversos níveis de ensino. O aluno passa pelos diversos sistemas, na medida que pode passar do sistema de ensino básico, para o ensino secundário ao ensino superior. Contudo o aluno será o mesmo, consequentemente a identidade do aluno será a mesma para os diversos sistemas, o que altera são as avaliações e os planos curriculares, criando um histórico do aluno. Ele tem um ciclo de vida dentro do sistema de ensino. No entanto o estudo permitiu concluir, que o sistema educativo apresenta profundas lacunas no que tange a sua infra-estrutura tecnológica, que lhes permitirá ter mais dinâmica no processo de matrícula e emissão de certificados e na troca de informação entre os estabelecimentos, há dificuldade em criar um histórico do aluno de forma automática com toda a sua avaliação durante o seu ciclo de estudo, do primário ao superior. A proposta de tecnologias de integração entre as instituições, é baseado em métodos, nomeadamente, utilizando Web Services, que é um protocolo simples, que permite a interoperabilidade entre diversos sistemas. Funciona com o protocolo HTTP/HTTPs, que pode ser configurado e acedido facilmente nos Sistemas de Informação. As tecnologias Web constituem um excelente meio de para atingir o objectivo preconizado. Utilizando-as, as escolas poderão construir um sistema (Intranet), que pode ser acedida por todos as escolas e instituições do sistema educativo, com grandes benefícios, quer em termos pedagógicos como administrativo das instituições permitindo assim a partilha das informações internas, melhorando a comunicação entre os vários intervenientes.
Resumo:
En aquest món on ens ha tocat viure i patir canvis tan durs amb la crisi econòmica que patim, que ens ha fet passar de lligar els gossos amb llonganisses a vigilar en les despeses del dia a dia per poder arribar just a final de mes, és el moment de reinventar-se. És per aquest motiu que presento aquesta idea, on el seu objectiu és desenvolupar una pàgina web que esdevingui un punt de trobada entre usuaris que volen transmetre o ampliar el seu coneixement i oferir-los la possibilitat que entre ells puguin compartir les seves habilitats i destreses. El web consistirà en un panell d’activitats on els usuaris un cop s’hagin registrat puguin crear les activitats que vulguin aprendre o bé ensenyar, tot demanant, si ho desitgen, quelcom a canvi. Aleshores la resta d’usuaris si els interessa l’activitat, poden acceptar la demanda o bé fer una proposta pròpia. A partir d’aquí els usuaris s’han de posar d’acord a l’hora de dur a terme l’activitat. El web disposarà d’una part pels usuaris amb permisos d’administrador perquè puguin gestionar el portal. Aquest projecte s’ha desenvolupat amb el framework de PHP Codeigniter, el qual utilitza la programació per capes MVC, la qual separa la programació en tres parts: el Model, la Vista i el Controlador. També s’han utilitzat els llenguatges HTML5 i CSS3, i jQuery, que és una llibreria de JavaScript. Com a sistema gestor de base de dades s’ha utilitzat el MySQL.
Resumo:
El proyecto consiste principalmente en definir y desarrollar una herramienta de gestión de metadatos de negocio para los indicadores clave de rendimiento. Actualmente no existe ninguna herramienta BI que permita almacenar información de negocio más allá de las especificaciones técnicas. Dicha aplicación, actuará como repositorio centralizado de la definición de los indicadores clave de negocio de la compañia incluyendo información del metadato del indicador, (tal como, responsable del indicador, dimensiones de análisis, profundidad histórica, frecuencia de actualización, procesos de negocio implicados, etc.).
Resumo:
La finalitat d’aquest projecte és la realització d’un visor cartogràfic web, tot i que per fer-ho s’ha de crear una aplicació que transfereix dades automàticament des d’una base de dades de Microsoft Acces a MySQL mitjançant Visual Basic 2010 Express. Per realitzar el visor cartogràfic web s’ha utilitzat MapServer com servidor de mapes, el llenguatge de programació Javascript i les llibreries OpenLayers, ExtJS i GeoExt. Per últim es plantegen una sèrie de possibles millores del visor, tant a nivell de tecnologies utilitzades com de funcionalitats
Resumo:
WebGraphEd is an open source software for graph visualization and manipulation. It is especially designed to work for the web platform through a web browser. The web application has been written in JavaScript and compacted later, which makes it a very lightweight software. There is no need of additional software, and the only requirement is to have an HTML5 compliant browser. WebGraphEd works with scalable vector graphics (SVG), which it makes possible to create lossless graph drawings.
Resumo:
Current-day web search engines (e.g., Google) do not crawl and index a significant portion of theWeb and, hence, web users relying on search engines only are unable to discover and access a large amount of information from the non-indexable part of the Web. Specifically, dynamic pages generated based on parameters provided by a user via web search forms (or search interfaces) are not indexed by search engines and cannot be found in searchers’ results. Such search interfaces provide web users with an online access to myriads of databases on the Web. In order to obtain some information from a web database of interest, a user issues his/her query by specifying query terms in a search form and receives the query results, a set of dynamic pages that embed required information from a database. At the same time, issuing a query via an arbitrary search interface is an extremely complex task for any kind of automatic agents including web crawlers, which, at least up to the present day, do not even attempt to pass through web forms on a large scale. In this thesis, our primary and key object of study is a huge portion of the Web (hereafter referred as the deep Web) hidden behind web search interfaces. We concentrate on three classes of problems around the deep Web: characterization of deep Web, finding and classifying deep web resources, and querying web databases. Characterizing deep Web: Though the term deep Web was coined in 2000, which is sufficiently long ago for any web-related concept/technology, we still do not know many important characteristics of the deep Web. Another matter of concern is that surveys of the deep Web existing so far are predominantly based on study of deep web sites in English. One can then expect that findings from these surveys may be biased, especially owing to a steady increase in non-English web content. In this way, surveying of national segments of the deep Web is of interest not only to national communities but to the whole web community as well. In this thesis, we propose two new methods for estimating the main parameters of deep Web. We use the suggested methods to estimate the scale of one specific national segment of the Web and report our findings. We also build and make publicly available a dataset describing more than 200 web databases from the national segment of the Web. Finding deep web resources: The deep Web has been growing at a very fast pace. It has been estimated that there are hundred thousands of deep web sites. Due to the huge volume of information in the deep Web, there has been a significant interest to approaches that allow users and computer applications to leverage this information. Most approaches assumed that search interfaces to web databases of interest are already discovered and known to query systems. However, such assumptions do not hold true mostly because of the large scale of the deep Web – indeed, for any given domain of interest there are too many web databases with relevant content. Thus, the ability to locate search interfaces to web databases becomes a key requirement for any application accessing the deep Web. In this thesis, we describe the architecture of the I-Crawler, a system for finding and classifying search interfaces. Specifically, the I-Crawler is intentionally designed to be used in deepWeb characterization studies and for constructing directories of deep web resources. Unlike almost all other approaches to the deep Web existing so far, the I-Crawler is able to recognize and analyze JavaScript-rich and non-HTML searchable forms. Querying web databases: Retrieving information by filling out web search forms is a typical task for a web user. This is all the more so as interfaces of conventional search engines are also web forms. At present, a user needs to manually provide input values to search interfaces and then extract required data from the pages with results. The manual filling out forms is not feasible and cumbersome in cases of complex queries but such kind of queries are essential for many web searches especially in the area of e-commerce. In this way, the automation of querying and retrieving data behind search interfaces is desirable and essential for such tasks as building domain-independent deep web crawlers and automated web agents, searching for domain-specific information (vertical search engines), and for extraction and integration of information from various deep web resources. We present a data model for representing search interfaces and discuss techniques for extracting field labels, client-side scripts and structured data from HTML pages. We also describe a representation of result pages and discuss how to extract and store results of form queries. Besides, we present a user-friendly and expressive form query language that allows one to retrieve information behind search interfaces and extract useful data from the result pages based on specified conditions. We implement a prototype system for querying web databases and describe its architecture and components design.
Resumo:
En aquest món on ens ha tocat viure i patir canvis tan durs amb la crisi econòmica que patim, que ens ha fet passar de lligar els gossos amb llonganisses a vigilar en les despeses del dia a dia per poder arribar just a final de mes, és el moment de reinventar-se. És per aquest motiu que presento aquesta idea, on el seu objectiu és desenvolupar una pàgina web que esdevingui un punt de trobada entre usuaris que volen transmetre o ampliar el seu coneixement i oferir-los la possibilitat que entre ells puguin compartir les seves habilitats i destreses. El web consistirà en un panell d’activitats on els usuaris un cop s’hagin registrat puguin crear les activitats que vulguin aprendre o bé ensenyar, tot demanant, si ho desitgen, quelcom a canvi. Aleshores la resta d’usuaris si els interessa l’activitat, poden acceptar la demanda o bé fer una proposta pròpia. A partir d’aquí els usuaris s’han de posar d’acord a l’hora de dur a terme l’activitat. El web disposarà d’una part pels usuaris amb permisos d’administrador perquè puguin gestionar el portal. Aquest projecte s’ha desenvolupat amb el framework de PHP Codeigniter, el qual utilitza la programació per capes MVC, la qual separa la programació en tres parts: el Model, la Vista i el Controlador. També s’han utilitzat els llenguatges HTML5 i CSS3, i jQuery, que és una llibreria de JavaScript. Com a sistema gestor de base de dades s’ha utilitzat el MySQL.
Resumo:
HTML5-tekniikka sekä Javascript tuen laajuus selaimissa vaihtelee. Tässä työssä kyseisiä tekniikoita tutkitaan ja selvitetään niiden toimivuus keräilykorttipelin tarvittavien ominaisuuksien osalta. Tuet kartoitetaan viiden yleisimmän selaimen osalta. HTML5 tukee WebSocket-ominaisuutta, mutta kaikki selaimet eivät tue ominaisuutta tai se on poistettu käytöstä. Työssä etsitään tiedonsiirtotekniikan korvaaja, jota testataan ja verrattaan yleisesti käytettäviin tekniikoihin. Socket.io oli nopea tekniikka ja viisi yleisintä selainta tuki kyseistä tekniikkaa. Tämän vuoksi Socket.io-tekniikka soveltuu keräilykorttipeliin hyvin. Työssä tutkitaan keräilykorttipeliin liittyviä ongelmia sekä ratkaistaan ilmenneet ongelmat. Keräilykorttipelissä kyseisiä ongelmia ilmeni hyvin vähän. HTML5 animaatio tutkitaan että se on optimoitu hyvin, jotta käyttäjälle tulee miellyttävä peli kokemus. Keräilykorttipeliin lisäksi tehdään käytännön toteutuksena pakkaeditorin prototyyppi, jossa käytetään drag&drop-tekniikkaa. Tämän vuoksi myös drag&drop-tekniikan tuki on selainten osalta kartoitettu myös työssä, sekä testattu käytännön toteutuksena prototyypissä. Prototyypin tarkoitus on kartoittaa mahdolliset tulevat ongelmat sekä auttaa varsinaisen pakkaeditorin tuotantoversiossa.
Resumo:
L’observation de l’exécution d’applications JavaScript est habituellement réalisée en instrumentant une machine virtuelle (MV) industrielle ou en effectuant une traduction source-à-source ad hoc et complexe. Ce mémoire présente une alternative basée sur la superposition de machines virtuelles. Notre approche consiste à faire une traduction source-à-source d’un programme pendant son exécution pour exposer ses opérations de bas niveau au travers d’un modèle objet flexible. Ces opérations de bas niveau peuvent ensuite être redéfinies pendant l’exécution pour pouvoir en faire l’observation. Pour limiter la pénalité en performance introduite, notre approche exploite les opérations rapides originales de la MV sous-jacente, lorsque cela est possible, et applique les techniques de compilation à-la-volée dans la MV superposée. Notre implémentation, Photon, est en moyenne 19% plus rapide qu’un interprète moderne, et entre 19× et 56× plus lente en moyenne que les compilateurs à-la-volée utilisés dans les navigateurs web populaires. Ce mémoire montre donc que la superposition de machines virtuelles est une technique alternative compétitive à la modification d’un interprète moderne pour JavaScript lorsqu’appliqué à l’observation à l’exécution des opérations sur les objets et des appels de fonction.
Resumo:
Tecnigral, S.L (consultoría medioambiental) ha buscado, desde su origen, apoyar a los técnicos en la gestión diaria de servicios urbanos. ¿Cómo? Proporcionándoles tanto software de gestión como servicios de análisis y de control de calidad. Desde 2006 hemos desarrollado una docena de proyectos de gestión SIG utilizando MapServer para generar las imágenes cartográficas. Una de las demandas que hemos recibido es la de poder editar (desde el mismo entorno, con suficiente precisión y sencillez) la información cartográfica gestionada. Frente a esta demanda nuestra propuesta de solución ha sido desarrollar una aplicación web con las siguientes características: • Reutilizar al máximo el software ya existente. (MapServer, como servidor de cartografía [y su capacidad de acceso a fuentes de datos vectoriales] y VML de Internet Explorer como gestor vectorial en el cliente web) • Evitar cualquier tipo de instalación en los clientes. Al utilizar, sobre IE, el formato VML (Para FireFox tenemos previsto utilizar SVG) el único requerimiento es tener activo javaScript. • Precisión métrica elevada. VML permite obtener mediciones con precisión centimétrica. • Contar con funciones de navegación, medición, alta de elementos puntuales, lineales, superficiales y rótulos. Edición de vértices, duplicación y desplazamiento de elementos, etc. • Todo el desarrollo, desde la parte cliente está realizado con javaScript y aprovecha la flexibilidad de AJAX. El citado Sistema de edición cartográfica (que empezamos a desarrollar a principio de 2007) se está aplicando en el proyecto GAVI, del departamento de Parques y Jardines del Ayuntamiento de Barcelona
Resumo:
ka-Map ("ka" as in ka-boom!) is an open source project that is aimed at providing a javascript API for developing highly interactive web-mapping interfaces using features available in modern web browsers. ka-Map currently has a number of interesting features. It sports the usual array of user interface elements such as: interactive, continuous panning without reloading the page; keyboard navigation options (zooming, panning); zooming to pre-set scales; interactive scalebar, legend and keymap support; optional layer control on client side; server side tile caching
Resumo:
En la web del Institut Cartogràfic de Catalunya se puede navegar por la cartografía oficial de Catalunya, así como descargarla en diferentes formatos, gracias a la aplicación Vissir2, evolución de la histórica Visir (VISor del Servidor de Imágenes Ráster). Nos propusimos que esta nueva versión superase ciertas limitaciones de la herramienta existente: debía poder evolucionar fácilmente en el tiempo, y acercar el uso de nuestros datos y servicios al público más amplio posible. Por ello, se optó por una aplicación basada en software libre y orientada a servicios web con protocolos estándar. En la parte de cliente se ejecuta OpenLayers, una aplicación Javascript muy completa y fácilmente adaptable. En la parte del servidor, TileCaché sirve los datos cartográficos rápidamente y siempre actualizados gracias a una adaptación propia. Pero Vissir2 también utiliza servicios web de producción propia para la impresión, la localización de topónimos, la conversión de coordenadas o la consulta de productos descargables, todos ellos con un protocolo ligero y sencillo. Gracias a esta aplicación los usuarios pueden hacer búsquedas predictivas de topónimos, enlazar a una vista determinada, incrustar un pequeño mapa en su web, descargar un jpeg con la vista actual –o imprimirla–, descargar los datos en diversos formatos, consultar la leyenda del mapa, medir longitudes y áreas, transformar coordenadas, consultar la fecha de elaboración de un producto determinado, o superponer capas con transparencia