901 resultados para WEB systems
Resumo:
Abstract A frequent assumption in Social Media is that its open nature leads to a representative view of the world. In this talk we want to consider bias occurring in the Social Web. We will consider a case study of liquid feedback, a direct democracy platform of the German pirate party as well as models of (non-)discriminating systems. As a conclusion of this talk we stipulate the need of Social Media systems to bias their working according to social norms and to publish the bias they introduce. Speaker Biography: Prof Steffen Staab Steffen studied in Erlangen (Germany), Philadelphia (USA) and Freiburg (Germany) computer science and computational linguistics. Afterwards he worked as researcher at Uni. Stuttgart/Fraunhofer and Univ. Karlsruhe, before he became professor in Koblenz (Germany). Since March 2015 he also holds a chair for Web and Computer Science at Univ. of Southampton sharing his time between here and Koblenz. In his research career he has managed to avoid almost all good advice that he now gives to his team members. Such advise includes focusing on research (vs. company) or concentrating on only one or two research areas (vs. considering ontologies, semantic web, social web, data engineering, text mining, peer-to-peer, multimedia, HCI, services, software modelling and programming and some more). Though, actually, improving how we understand and use text and data is a good common denominator for a lot of Steffen's professional activities.
Resumo:
Monográfico con el título: 'Nuevos desafíos en la formación del profesorado'
Resumo:
En este trabajo se ha integrado la librería IDELabMapstraction como un nuevo módulo para GWT, denominado IDELabMapstractionGWT, en el que también se han diseñado distintos controles genéricos que se pueden asociar al mapa para que los usuarios puedan interactuar con él de forma intuitiva. Como resultado de esta integración se ha creado el visor MirameDuero, un completo visor web realizado en colaboración con la Confederación Hidrográfica del Duero
Resumo:
When publishing information on the web, one expects it to reach all the people that could be interested in. This is mainly achieved with general purpose indexing and search engines like Google which is the most used today. In the particular case of geographic information (GI) domain, exposing content to mainstream search engines is a complex task that needs specific actions. In many occasions it is convenient to provide a web site with a specially tailored search engine. Such is the case for on-line dictionaries (wikipedia, wordreference), stores (amazon, ebay), and generally all those holding thematic databases. Due to proliferation of these engines, A9.com proposed a standard interface called OpenSearch, used by modern web browsers to manage custom search engines. Geographic information can also benefit from the use of specific search engines. We can distinguish between two main approaches in GI retrieval information efforts: Classical OGC standardization on one hand (CSW, WFS filters), which are very complex for the mainstream user, and on the other hand the neogeographer’s approach, usually in the form of specific APIs lacking a common query interface and standard geographic formats. A draft ‘geo’ extension for OpenSearch has been proposed. It adds geographic filtering for queries and recommends a set of simple standard response geographic formats, such as KML, Atom and GeoRSS. This proposal enables standardization while keeping simplicity, thus covering a wide range of use cases, in both OGC and the neogeography paradigms. In this article we will analyze the OpenSearch geo extension in detail and its use cases, demonstrating its applicability to both the SDI and the geoweb. Open source implementations will be presented as well
Resumo:
La incorporación Software Libre para Geomática (FOSS4G), para la explotación de Información Geoespacial en Sistemas de Información (SI) empresariales es una tendencia inexorable. Aunque estas tecnologías se están difundiendo con rapidez en entornos de empresas especializadas, Universidades, Administraciones Públicas y Centros Tecnológicos, todavía es algo incipiente en grandes empresas, especialmente en aquellas no directamente relacionadas con las tecnologías de los SIG. El objetivo de esta presentación será mostrar cómo se está consiguiendo introducir el software de SIG libre en el mundo empresarial, con tres casos de éxito. El primero es un desarrollo tradicional para una compañía tipo ‘utility’ donde el cliente define una funcionalidad y contrata su desarrollo. El segundo es un modelo de contratación de servicios. La tercera es una aplicación para la administración pública. En los tres casos, el uso de software libre ha permitido ofrecer soluciones exitosas para los requerimientos de los clientes (tanto funcionales como de rendimiento), y óptimas en coste
Resumo:
This article discusses the lessons learned from developing and delivering the Vocational Management Training for the European Tourism Industry (VocMat) online training programme, which was aimed at providing flexible, online distance learning for the European tourism industry. The programme was designed to address managers ‘need for flexible, senior management level training which they could access at a time and place which fitted in with their working and non-work commitments. The authors present two main approaches to using the Virtual Learning Environment, the feedback from the participants, and the implications of online Technology in extending tourism training opportunities
Resumo:
Tras finalizar la producción del Sistema de Información de Ocupación de Suelo en España (SIOSE) afrontamos su publicación en la red. A la hora de decidir la estrategia de difusión de la información debemos tener en cuenta las necesidades de los usuarios, dando acceso a la visualización, consulta y análisis de los datos originales del sistema y de sus diferentes vistas temáticas. SIOSE tiene, para realizar esta tarea de forma adecuada, dos características que nos condicionan: su gran volumen de información y la complejidad semántica de su modelo de datos orientado a objetos. A partir de una arquitectura construida con componentes de software libre, desde el sistema operativo hasta las aplicaciones servidoras; los geoservicios web estándar son la primera opción para comunicar información geográfica a través de la web, pero las posibles soluciones son múltiples y muy variadas. Además los servicios deben combinarse y coordinarse con otras herramientas de publicación, como la libre descarga de los datos en bruto, para conseguir que SIOSE cumpla con su función de infraestructura de información territorial sobre la que generar valor añadido y para que sea una herramienta útil de análisis del territorio. Describiremos como hemos configurado nuestros servicios de visualización y consulta de los datos para mostrar en la red toda la jerarquía de información y los diferentes enfoques de análisis con los que se puede abordar SIOSE y como hemos intentado optimizar el rendimiento de estos servicios para ofrecer tiempos de respuesta adecuados ante cualquier posible petición
Resumo:
LEGENDiary es un geoportal 2.0 que permite compartir y explorar las leyendas y cuentos característicos de las ciudades de una manera dinámica y colaborativa. Muchas veces las leyendas forman parte de la historia y cultura de nuestros pueblos o ciudades, LEGENDiary nos permite conocerlas según el territorio donde se ubican. La iniciativa promueve nuevas formas de conocer y explorar el territorio, en general, y las leyendas y cuentos de nuestros pueblos y ciudades, en particular. Un proyecto que permite a los usuarios interactuar y ser protagonistas de esta experiencia. El proyecto parte inicialmente de un contexto español, y se trata de un proyecto hecho a medida de todas aquellas personas interesadas y con curiosidad en compartir, conocer y explorar las leyendas en el territorio. La combinación de las Tecnologías de la Información Geográfica y las Tecnologías 2.0 es el escenario donde surge LEGENDiary, aportando la componente geográfica a las leyendas y cuentos de los pueblos y ciudades en un contexto colaborativo. La iniciativa se lanza el día 16 de noviembre de 2011 en formato concurso con motivo del Día Internacional de los Sistemas de Información Geográfica (GISDay). Para llevar a cabo la aplicación se han utilizado dos librerías Javascript (Leaflet y jQuery) de código abierto y gratuito que permiten crear de forma rápida y ligera aplicaciones de mapas interactivos a través de navegadores web (de escritorio y móvil). Como mapa base se ha utilizado Open Street Map.LEGENDiary es una iniciativa del Servicio de SIG y Teledetección (SIGTE) de la Universidad de Girona en colaboración con el Departamento de Geografía y la Facultad de Turismo de la misma universidad, y con elapoyo del Hotel Llegendes de Girona
Resumo:
Vamos a presentar la primera implementación de código abierto de un servicio W3DS. Esta implementación se realiza a través de Geoserver. El servicio W3DS va a cambiar nuestra forma de manipular los datos en 3D. La visualización de los datos en 3D emitido por el 3DWS se pueden hacer en el navegador, ya que el soporte WebGL ya existe en navegadores recientes. En esta presentación describiremos la propuesta OGC, centrándose principalmente en la operación GetScene, se discute la implementación de dicho servicio, el formato X3D y el estado actual do soporte X3D DOM. También vamos a hablar de soporte 3D en PostGIS 2.0. Demostramos el servicio con los datos de varias ciudades, que muestra cómo importar y publicar datos en 3D. Por último, se mostrará una pequeña biblioteca Javascript OL3 para tomar ventaja de lo servivio W3DS para desarrollar aplicaciones web 3D
Resumo:
El treball desenvolupat en aquesta tesi presenta un profund estudi i proveïx solucions innovadores en el camp dels sistemes recomanadors. Els mètodes que usen aquests sistemes per a realitzar les recomanacions, mètodes com el Filtrat Basat en Continguts (FBC), el Filtrat Col·laboratiu (FC) i el Filtrat Basat en Coneixement (FBC), requereixen informació dels usuaris per a predir les preferències per certs productes. Aquesta informació pot ser demogràfica (Gènere, edat, adreça, etc), o avaluacions donades sobre algun producte que van comprar en el passat o informació sobre els seus interessos. Existeixen dues formes d'obtenir aquesta informació: els usuaris ofereixen explícitament aquesta informació o el sistema pot adquirir la informació implícita disponible en les transaccions o historial de recerca dels usuaris. Per exemple, el sistema recomanador de pel·lícules MovieLens (http://movielens.umn.edu/login) demana als usuaris que avaluïn almenys 15 pel·lícules dintre d'una escala de * a * * * * * (horrible, ...., ha de ser vista). El sistema genera recomanacions sobre la base d'aquestes avaluacions. Quan els usuaris no estan registrat en el sistema i aquest no té informació d'ells, alguns sistemes realitzen les recomanacions tenint en compte l'historial de navegació. Amazon.com (http://www.amazon.com) realitza les recomanacions tenint en compte les recerques que un usuari a fet o recomana el producte més venut. No obstant això, aquests sistemes pateixen de certa falta d'informació. Aquest problema és generalment resolt amb l'adquisició d'informació addicional, se li pregunta als usuaris sobre els seus interessos o es cerca aquesta informació en fonts addicionals. La solució proposada en aquesta tesi és buscar aquesta informació en diverses fonts, específicament aquelles que contenen informació implícita sobre les preferències dels usuaris. Aquestes fonts poden ser estructurades com les bases de dades amb informació de compres o poden ser no estructurades com les pàgines web on els usuaris deixen la seva opinió sobre algun producte que van comprar o posseïxen. Nosaltres trobem tres problemes fonamentals per a aconseguir aquest objectiu: 1 . La identificació de fonts amb informació idònia per als sistemes recomanadors. 2 . La definició de criteris que permetin la comparança i selecció de les fonts més idònies. 3 . La recuperació d'informació de fonts no estructurades. En aquest sentit, en la tesi proposada s'ha desenvolupat: 1 . Una metodologia que permet la identificació i selecció de les fonts més idònies. Criteris basats en les característiques de les fonts i una mesura de confiança han estat utilitzats per a resoldre el problema de la identificació i selecció de les fonts. 2 . Un mecanisme per a recuperar la informació no estructurada dels usuaris disponible en la web. Tècniques de Text Mining i ontologies s'han utilitzat per a extreure informació i estructurar-la apropiadament perquè la utilitzin els recomanadors. Les contribucions del treball desenvolupat en aquesta tesi doctoral són: 1. Definició d'un conjunt de característiques per a classificar fonts rellevants per als sistemes recomanadors 2. Desenvolupament d'una mesura de rellevància de les fonts calculada sobre la base de les característiques definides 3. Aplicació d'una mesura de confiança per a obtenir les fonts més fiables. La confiança es definida des de la perspectiva de millora de la recomanació, una font fiable és aquella que permet millorar les recomanacions. 4. Desenvolupament d'un algorisme per a seleccionar, des d'un conjunt de fonts possibles, les més rellevants i fiable utilitzant les mitjanes esmentades en els punts previs. 5. Definició d'una ontologia per a estructurar la informació sobre les preferències dels usuaris que estan disponibles en Internet. 6. Creació d'un procés de mapatge que extreu automàticament informació de les preferències dels usuaris disponibles en la web i posa aquesta informació dintre de l'ontologia. Aquestes contribucions permeten aconseguir dos objectius importants: 1 . Millorament de les recomanacions usant fonts d'informació alternatives que sigui rellevants i fiables. 2 . Obtenir informació implícita dels usuaris disponible en Internet.
Resumo:
The storage and processing capacity realised by computing has lead to an explosion of data retention. We now reach the point of information overload and must begin to use computers to process more complex information. In particular, the proposition of the Semantic Web has given structure to this problem, but has yet realised practically. The largest of its problems is that of ontology construction; without a suitable automatic method most will have to be encoded by hand. In this paper we discus the current methods for semi and fully automatic construction and their current shortcomings. In particular we pay attention the application of ontologies to products and the particle application of the ontologies.
Resumo:
Currently many ontologies are available for addressing different domains. However, it is not always possible to deploy such ontologies to support collaborative working, so that their full potential can be exploited to implement intelligent cooperative applications capable of reasoning over a network of context-specific ontologies. The main problem arises from the fact that presently ontologies are created in an isolated way to address specific needs. However we foresee the need for a network of ontologies which will support the next generation of intelligent applications/devices, and, the vision of Ambient Intelligence. The main objective of this paper is to motivate the design of a networked ontology (Meta) model which formalises ways of connecting available ontologies so that they are easy to search, to characterise and to maintain. The aim is to make explicit the virtual and implicit network of ontologies serving the Semantic Web.
Resumo:
GODIVA2 is a dynamic website that provides visual access to several terabytes of physically distributed, four-dimensional environmental data. It allows users to explore large datasets interactively without the need to install new software or download and understand complex data. Through the use of open international standards, GODIVA2 maintains a high level of interoperability with third-party systems, allowing diverse datasets to be mutually compared. Scientists can use the system to search for features in large datasets and to diagnose the output from numerical simulations and data processing algorithms. Data providers around Europe have adopted GODIVA2 as an INSPIRE-compliant dynamic quick-view system for providing visual access to their data.
Resumo:
In general, ranking entities (resources) on the Semantic Web (SW) is subject to importance, relevance, and query length. Few existing SW search systems cover all of these aspects. Moreover, many existing efforts simply reuse the technologies from conventional Information Retrieval (IR), which are not designed for SW data. This paper proposes a ranking mechanism, which includes all three categories of rankings and are tailored to SW data.
Resumo:
This paper presents a new approach to achieving interoperability between Web-based construction products catalogues. It first introduces the current development of electronic catalogues of construction products. The common system architecture of Web-based electronic products catalogues is discussed, which is followed by a discussion on construction products information standardization and the latest distributed-systems technologies for the communication and exchange of construction products information. The latter part of this paper presents a model of interoperable Web-based construction products catalogue and an implementation of Web services in E-commerce systems to enable the sharing of construction products information.