866 resultados para topic, web information gathering, web personalization
Resumo:
Wednesday 2nd April 2014 Speaker(s): Stefan Decker Time: 02/04/2014 11:00-11:50 Location: B2/1083 File size: 897 Mb Abstract Ontologies have been promoted and used for knowledge sharing. Several models for representing ontologies have been developed in the Knowledge Representation field, in particular associated with the Semantic Web. In my talk I will summarise developments so far, and will argue that the currently advocated approaches miss certain basic properties of current distributed information sharing infrastructures (read: the Web and the Internet). I will sketch an alternative model aiming to support knowledge sharing and re-use on a global basis.
Resumo:
En este trabajo se realiza una descripción y análisis del esquema de funcionamiento detrás del emergente mercado de las compras colectivas y los cupones online desde una perspectiva tanto teórica como empírica. Inicialmente, se desarrolla un marco teórico teniendo en cuenta elementos de: teoría económica, e-marketing y comercio electrónico en los que se basa éste mercado. Posteriormente, se muestra el proyecto de implementación de una plataforma virtual y un sistema de incentivos basado en el esquema de cupones online desarrollado por el autor para la franquicia de tarjetas de crédito Diners Club International del Banco Davivienda S.A. en Colombia
Resumo:
El proyecto de creación de una Aplicación web sobre los diferentes perfiles de mercado de las provincias canadienses, consiste en la recopilación de información de diversas fuentes académicas, con el fin de crear una guía electrónica que permita a los exportadores colombianos tener información precisa y actualizada sobre cada una de las provincias canadienses.
Resumo:
En este trabajo se ha integrado la librería IDELabMapstraction como un nuevo módulo para GWT, denominado IDELabMapstractionGWT, en el que también se han diseñado distintos controles genéricos que se pueden asociar al mapa para que los usuarios puedan interactuar con él de forma intuitiva. Como resultado de esta integración se ha creado el visor MirameDuero, un completo visor web realizado en colaboración con la Confederación Hidrográfica del Duero
Resumo:
When publishing information on the web, one expects it to reach all the people that could be interested in. This is mainly achieved with general purpose indexing and search engines like Google which is the most used today. In the particular case of geographic information (GI) domain, exposing content to mainstream search engines is a complex task that needs specific actions. In many occasions it is convenient to provide a web site with a specially tailored search engine. Such is the case for on-line dictionaries (wikipedia, wordreference), stores (amazon, ebay), and generally all those holding thematic databases. Due to proliferation of these engines, A9.com proposed a standard interface called OpenSearch, used by modern web browsers to manage custom search engines. Geographic information can also benefit from the use of specific search engines. We can distinguish between two main approaches in GI retrieval information efforts: Classical OGC standardization on one hand (CSW, WFS filters), which are very complex for the mainstream user, and on the other hand the neogeographer’s approach, usually in the form of specific APIs lacking a common query interface and standard geographic formats. A draft ‘geo’ extension for OpenSearch has been proposed. It adds geographic filtering for queries and recommends a set of simple standard response geographic formats, such as KML, Atom and GeoRSS. This proposal enables standardization while keeping simplicity, thus covering a wide range of use cases, in both OGC and the neogeography paradigms. In this article we will analyze the OpenSearch geo extension in detail and its use cases, demonstrating its applicability to both the SDI and the geoweb. Open source implementations will be presented as well
Resumo:
La incorporación Software Libre para Geomática (FOSS4G), para la explotación de Información Geoespacial en Sistemas de Información (SI) empresariales es una tendencia inexorable. Aunque estas tecnologías se están difundiendo con rapidez en entornos de empresas especializadas, Universidades, Administraciones Públicas y Centros Tecnológicos, todavía es algo incipiente en grandes empresas, especialmente en aquellas no directamente relacionadas con las tecnologías de los SIG. El objetivo de esta presentación será mostrar cómo se está consiguiendo introducir el software de SIG libre en el mundo empresarial, con tres casos de éxito. El primero es un desarrollo tradicional para una compañía tipo ‘utility’ donde el cliente define una funcionalidad y contrata su desarrollo. El segundo es un modelo de contratación de servicios. La tercera es una aplicación para la administración pública. En los tres casos, el uso de software libre ha permitido ofrecer soluciones exitosas para los requerimientos de los clientes (tanto funcionales como de rendimiento), y óptimas en coste
Resumo:
El objetivo de este trabajo se centra en la idea de integrar los recursos basados en la Web 2.0 a la asignatura de Enfermería Comunitaria para favorecer el trabajo grupal. El profesional de Enfermería Comunitaria debe ser capaz de trabajar en equipo para desarrollar iniciativas de promoción y educación para la salud y de reconocer la complementariedad de la multiprofesionalidad. Para desarrollar estas habilidades en las prácticas de la asignatura se propone la planificación de un programa de educación para la salud a partir de un trabajo en grupo. Para facilitar esta actividad se plantea al alumnado la incorporación de las nuevas tecnologías de la información y comunicación (TICS) al trabajo cooperativo
Resumo:
Tras finalizar la producción del Sistema de Información de Ocupación de Suelo en España (SIOSE) afrontamos su publicación en la red. A la hora de decidir la estrategia de difusión de la información debemos tener en cuenta las necesidades de los usuarios, dando acceso a la visualización, consulta y análisis de los datos originales del sistema y de sus diferentes vistas temáticas. SIOSE tiene, para realizar esta tarea de forma adecuada, dos características que nos condicionan: su gran volumen de información y la complejidad semántica de su modelo de datos orientado a objetos. A partir de una arquitectura construida con componentes de software libre, desde el sistema operativo hasta las aplicaciones servidoras; los geoservicios web estándar son la primera opción para comunicar información geográfica a través de la web, pero las posibles soluciones son múltiples y muy variadas. Además los servicios deben combinarse y coordinarse con otras herramientas de publicación, como la libre descarga de los datos en bruto, para conseguir que SIOSE cumpla con su función de infraestructura de información territorial sobre la que generar valor añadido y para que sea una herramienta útil de análisis del territorio. Describiremos como hemos configurado nuestros servicios de visualización y consulta de los datos para mostrar en la red toda la jerarquía de información y los diferentes enfoques de análisis con los que se puede abordar SIOSE y como hemos intentado optimizar el rendimiento de estos servicios para ofrecer tiempos de respuesta adecuados ante cualquier posible petición
Resumo:
LEGENDiary es un geoportal 2.0 que permite compartir y explorar las leyendas y cuentos característicos de las ciudades de una manera dinámica y colaborativa. Muchas veces las leyendas forman parte de la historia y cultura de nuestros pueblos o ciudades, LEGENDiary nos permite conocerlas según el territorio donde se ubican. La iniciativa promueve nuevas formas de conocer y explorar el territorio, en general, y las leyendas y cuentos de nuestros pueblos y ciudades, en particular. Un proyecto que permite a los usuarios interactuar y ser protagonistas de esta experiencia. El proyecto parte inicialmente de un contexto español, y se trata de un proyecto hecho a medida de todas aquellas personas interesadas y con curiosidad en compartir, conocer y explorar las leyendas en el territorio. La combinación de las Tecnologías de la Información Geográfica y las Tecnologías 2.0 es el escenario donde surge LEGENDiary, aportando la componente geográfica a las leyendas y cuentos de los pueblos y ciudades en un contexto colaborativo. La iniciativa se lanza el día 16 de noviembre de 2011 en formato concurso con motivo del Día Internacional de los Sistemas de Información Geográfica (GISDay). Para llevar a cabo la aplicación se han utilizado dos librerías Javascript (Leaflet y jQuery) de código abierto y gratuito que permiten crear de forma rápida y ligera aplicaciones de mapas interactivos a través de navegadores web (de escritorio y móvil). Como mapa base se ha utilizado Open Street Map.LEGENDiary es una iniciativa del Servicio de SIG y Teledetección (SIGTE) de la Universidad de Girona en colaboración con el Departamento de Geografía y la Facultad de Turismo de la misma universidad, y con elapoyo del Hotel Llegendes de Girona
Resumo:
Vamos a presentar la primera implementación de código abierto de un servicio W3DS. Esta implementación se realiza a través de Geoserver. El servicio W3DS va a cambiar nuestra forma de manipular los datos en 3D. La visualización de los datos en 3D emitido por el 3DWS se pueden hacer en el navegador, ya que el soporte WebGL ya existe en navegadores recientes. En esta presentación describiremos la propuesta OGC, centrándose principalmente en la operación GetScene, se discute la implementación de dicho servicio, el formato X3D y el estado actual do soporte X3D DOM. También vamos a hablar de soporte 3D en PostGIS 2.0. Demostramos el servicio con los datos de varias ciudades, que muestra cómo importar y publicar datos en 3D. Por último, se mostrará una pequeña biblioteca Javascript OL3 para tomar ventaja de lo servivio W3DS para desarrollar aplicaciones web 3D
Resumo:
Esta dissertação resulta de uma investigação que levou a cabo um estudo webométrico sobre a presença das universidades portuguesas na Web, avaliando a visibilidade das instituições através do cálculo de um indicador webométrico, o Web Impact Factor. A World Wide Web é, na atualidade, um dos principais meios de difusão de Informação. Os Estudos Métricos da Informação visam quantificar e avaliar a produção de Informação, objeto de estudo de disciplinas como a Infometria, a Cienciometria e a Bibliometria. Recentemente, surgiram a Cibermetria e a Webometria como novas disciplinas que estudam a produção e difusão da Informação no contexto do Ciberespaço e da World Wide Web, respetivamente. As universidades, enquanto polos privilegiados de produção e difusão de conhecimento, são o objeto de estudo natural da Webometria e a avaliação da sua presença na World Wide Web contribui para a análise do desempenho destas instituições. Para a realização deste trabalho foi adotada a metodologia proposta por Noruzi, que calcula três categorias de Web Impact Factor: o WIF Total, o WIF Revisto e o Selflink WIF. De modo a calcular estas categorias, foram recolhidos dados quantitativos de inlinks, selflinks, número total de páginas e número de páginas indexadas pelo motor de pesquisa. O motor de pesquisa utilizado foi o Altavista, tendo sido realizadas pesquisas de expressões booleanas durante o primeiro semestre de 2009. Após a recolha, os dados foram tratados estatisticamente e procedeu-se ao cálculo das categorias do WIF. Conclui-se que existe uma maior visibilidade das universidades públicas portuguesas porque obtêm melhores resultados ao nível de duas categorias do Web Impact Factor: o WIF Revisto e o Selflink WIF.
Resumo:
The amateur birding community has a long and proud tradition of contributing to bird surveys and bird atlases. Coordinated activities such as Breeding Bird Atlases and the Christmas Bird Count are examples of "citizen science" projects. With the advent of technology, Web 2.0 sites such as eBird have been developed to facilitate online sharing of data and thus increase the potential for real-time monitoring. However, as recently articulated in an editorial in this journal and elsewhere, monitoring is best served when based on a priori hypotheses. Harnessing citizen scientists to collect data following a hypothetico-deductive approach carries challenges. Moreover, the use of citizen science in scientific and monitoring studies has raised issues of data accuracy and quality. These issues are compounded when data collection moves into the Web 2.0 world. An examination of the literature from social geography on the concept of "citizen sensors" and volunteered geographic information (VGI) yields thoughtful reflections on the challenges of data quality/data accuracy when applying information from citizen sensors to research and management questions. VGI has been harnessed in a number of contexts, including for environmental and ecological monitoring activities. Here, I argue that conceptualizing a monitoring project as an experiment following the scientific method can further contribute to the use of VGI. I show how principles of experimental design can be applied to monitoring projects to better control for data quality of VGI. This includes suggestions for how citizen sensors can be harnessed to address issues of experimental controls and how to design monitoring projects to increase randomization and replication of sampled data, hence increasing scientific reliability and statistical power.
Resumo:
The storage and processing capacity realised by computing has lead to an explosion of data retention. We now reach the point of information overload and must begin to use computers to process more complex information. In particular, the proposition of the Semantic Web has given structure to this problem, but has yet realised practically. The largest of its problems is that of ontology construction; without a suitable automatic method most will have to be encoded by hand. In this paper we discus the current methods for semi and fully automatic construction and their current shortcomings. In particular we pay attention the application of ontologies to products and the particle application of the ontologies.
Resumo:
Many producers of geographic information are now disseminating their data using open web service protocols, notably those published by the Open Geospatial Consortium. There are many challenges inherent in running robust and reliable services at reasonable cost. Cloud computing provides a new kind of scalable infrastructure that could address many of these challenges. In this study we implement a Web Map Service for raster imagery within the Google App Engine environment. We discuss the challenges of developing GIS applications within this framework and the performance characteristics of the implementation. Results show that the application scales well to multiple simultaneous users and performance will be adequate for many applications, although concerns remain over issues such as latency spikes. We discuss the feasibility of implementing services within the free usage quotas of Google App Engine and the possibility of extending the approaches in this paper to other GIS applications.
Resumo:
In general, ranking entities (resources) on the Semantic Web (SW) is subject to importance, relevance, and query length. Few existing SW search systems cover all of these aspects. Moreover, many existing efforts simply reuse the technologies from conventional Information Retrieval (IR), which are not designed for SW data. This paper proposes a ranking mechanism, which includes all three categories of rankings and are tailored to SW data.