137 resultados para Hexagonal 3-web
Resumo:
Interlinking text documents with Linked Open Data enables the Web of Data to be used as background knowledge within document-oriented applications such as search and faceted browsing. As a step towards interconnecting the Web of Documents with the Web of Data, we developed DBpedia Spotlight, a system for automatically annotating text documents with DBpedia URIs. DBpedia Spotlight allows users to configure the annotations to their specific needs through the DBpedia Ontology and quality measures such as prominence, topical pertinence, contextual ambiguity and disambiguation confidence. We compare our approach with the state of the art in disambiguation, and evaluate our results in light of three baselines and six publicly available annotation systems, demonstrating the competitiveness of our system. DBpedia Spotlight is shared as open source and deployed as a Web Service freely available for public use.
End-User Development Success Factors and their Application to Composite Web Development Environments
Resumo:
The Future Internet is expected to be composed of a mesh of interoperable Web services accessed from all over the Web. This approach has not yet caught on since global user-service interaction is still an open issue. Successful composite applications rely on heavyweight service orchestration technologies that raise the bar far above end-user skills. The weakness lies in the abstraction of the underlying service front-end architecture rather than the infrastructure technologies themselves. In our opinion, the best approach is to offer end-to-end composition from user interface to service invocation, as well as an understandable abstraction of both building blocks and a visual composition technique. In this paper we formalize our vision with regard to the next-generation front-end Web technology that will enable integrated access to services, contents and things in the Future Internet. We present a novel reference architecture designed to empower non-technical end users to create and share their own self-service composite applications. A tool implementing this architecture has been developed as part of the European FP7 FAST Project and EzWeb Project, allowing us to validate the rationale behind our approach.
Resumo:
In the paper we report on the results of our experiments on the construction of the opinion ontology. Our aim is to show the benefits of publishing in the open, on the Web, the results of the opinion mining process in a structured form. On the road to achieving this, we attempt to answer the research question to what extent opinion information can be formalized in a unified way. Furthermore, as part of the evaluation, we experiment with the usage of Semantic Web technologies and show particular use cases that support our claims.
Resumo:
In spite of the increasing presence of Semantic Web Facilities, only a limited amount of the available resources in the Internet provide a semantic access. Recent initiatives such as the emerging Linked Data Web are providing semantic access to available data by porting existing resources to the semantic web using different technologies, such as database-semantic mapping and scraping. Nevertheless, existing scraping solutions are based on ad-hoc solutions complemented with graphical interfaces for speeding up the scraper development. This article proposes a generic framework for web scraping based on semantic technologies. This framework is structured in three levels: scraping services, semantic scraping model and syntactic scraping. The first level provides an interface to generic applications or intelligent agents for gathering information from the web at a high level. The second level defines a semantic RDF model of the scraping process, in order to provide a declarative approach to the scraping task. Finally, the third level provides an implementation of the RDF scraping model for specific technologies. The work has been validated in a scenario that illustrates its application to mashup technologies
Resumo:
El uso de Internet y su evolución acelerada en el tiempo no afecta exclusivamente a las empresas, sino que su ritmo viene marcado precisamente por los que se han de considerar nuevos productores de contenido en la Red. La Universidad no puede quedarse atrás en el uso de las TIC pero tampoco puede centrarse exclusivamente en plataformas de aprendizaje on-line de sofisticación elevada –OCW, Moodle, entre otros-, pero sin otorgar poder para modificar y generar contenidos a los usuarios. La Unidad Docente de Organización de Empresas del Departamento de Economía y Gestión Forestal de la Escuela Técnica Superior de Ingenieros de Montes de la Universidad Politécnica de Madrid propone el uso de plataformas Web 2.0 con el objeto de desarrollar competencias tradicionales y competencias 2.0. Estas plataformas tienen una gran acogida entre el alumnado, presentan utilidad tanto en el presente como en el futuro, y se puede utilizar como plataforma de Learning 2.0 de la Economía y Organización de Empresas
Resumo:
En una Web dominada por los medios sociales para la información, la relación y la comunicación, la dinámica que se establece entre contenidos, personas y tecnología cambia radicalmente. Ante la relevancia que cobra el contenido generado por usuarios en este escenario –esencialmente relacional-, la localización de las mejores fuentes de información requiere sistemas recomendadores que incorporen la naturaleza social de una Web que va más allá de la primigenia internet. Se revisan las aproximaciones actuales a los procesos de recomendación, poniéndolas en el contexto de las tendencias asociadas al fenómeno del social computing. Asimismo, se destacan algunas líneas de actuación en la redefinición del problema de la recomendación en un panorama dominado por las redes sociales y la generación de contenidos por los usuarios
Resumo:
OntoTag - A Linguistic and Ontological Annotation Model Suitable for the Semantic Web
1. INTRODUCTION. LINGUISTIC TOOLS AND ANNOTATIONS: THEIR LIGHTS AND SHADOWS
Computational Linguistics is already a consolidated research area. It builds upon the results of other two major ones, namely Linguistics and Computer Science and Engineering, and it aims at developing computational models of human language (or natural language, as it is termed in this area). Possibly, its most well-known applications are the different tools developed so far for processing human language, such as machine translation systems and speech recognizers or dictation programs.
These tools for processing human language are commonly referred to as linguistic tools. Apart from the examples mentioned above, there are also other types of linguistic tools that perhaps are not so well-known, but on which most of the other applications of Computational Linguistics are built. These other types of linguistic tools comprise POS taggers, natural language parsers and semantic taggers, amongst others. All of them can be termed linguistic annotation tools.
Linguistic annotation tools are important assets. In fact, POS and semantic taggers (and, to a lesser extent, also natural language parsers) have become critical resources for the computer applications that process natural language. Hence, any computer application that has to analyse a text automatically and ‘intelligently’ will include at least a module for POS tagging. The more an application needs to ‘understand’ the meaning of the text it processes, the more linguistic tools and/or modules it will incorporate and integrate.
However, linguistic annotation tools have still some limitations, which can be summarised as follows:
1. Normally, they perform annotations only at a certain linguistic level (that is, Morphology, Syntax, Semantics, etc.).
2. They usually introduce a certain rate of errors and ambiguities when tagging. This error rate ranges from 10 percent up to 50 percent of the units annotated for unrestricted, general texts.
3. Their annotations are most frequently formulated in terms of an annotation schema designed and implemented ad hoc.
A priori, it seems that the interoperation and the integration of several linguistic tools into an appropriate software architecture could most likely solve the limitations stated in (1). Besides, integrating several linguistic annotation tools and making them interoperate could also minimise the limitation stated in (2). Nevertheless, in the latter case, all these tools should produce annotations for a common level, which would have to be combined in order to correct their corresponding errors and inaccuracies. Yet, the limitation stated in (3) prevents both types of integration and interoperation from being easily achieved.
In addition, most high-level annotation tools rely on other lower-level annotation tools and their outputs to generate their own ones. For example, sense-tagging tools (operating at the semantic level) often use POS taggers (operating at a lower level, i.e., the morphosyntactic) to identify the grammatical category of the word or lexical unit they are annotating. Accordingly, if a faulty or inaccurate low-level annotation tool is to be used by other higher-level one in its process, the errors and inaccuracies of the former should be minimised in advance. Otherwise, these errors and inaccuracies would be transferred to (and even magnified in) the annotations of the high-level annotation tool.
Therefore, it would be quite useful to find a way to
(i) correct or, at least, reduce the errors and the inaccuracies of lower-level linguistic tools;
(ii) unify the annotation schemas of different linguistic annotation tools or, more generally speaking, make these tools (as well as their annotations) interoperate.
Clearly, solving (i) and (ii) should ease the automatic annotation of web pages by means of linguistic tools, and their transformation into Semantic Web pages (Berners-Lee, Hendler and Lassila, 2001). Yet, as stated above, (ii) is a type of interoperability problem. There again, ontologies (Gruber, 1993; Borst, 1997) have been successfully applied thus far to solve several interoperability problems. Hence, ontologies should help solve also the problems and limitations of linguistic annotation tools aforementioned.
Thus, to summarise, the main aim of the present work was to combine somehow these separated approaches, mechanisms and tools for annotation from Linguistics and Ontological Engineering (and the Semantic Web) in a sort of hybrid (linguistic and ontological) annotation model, suitable for both areas. This hybrid (semantic) annotation model should (a) benefit from the advances, models, techniques, mechanisms and tools of these two areas; (b) minimise (and even solve, when possible) some of the problems found in each of them; and (c) be suitable for the Semantic Web. The concrete goals that helped attain this aim are presented in the following section.
2. GOALS OF THE PRESENT WORK
As mentioned above, the main goal of this work was to specify a hybrid (that is, linguistically-motivated and ontology-based) model of annotation suitable for the Semantic Web (i.e. it had to produce a semantic annotation of web page contents). This entailed that the tags included in the annotations of the model had to (1) represent linguistic concepts (or linguistic categories, as they are termed in ISO/DCR (2008)), in order for this model to be linguistically-motivated; (2) be ontological terms (i.e., use an ontological vocabulary), in order for the model to be ontology-based; and (3) be structured (linked) as a collection of ontology-based
Resumo:
El trabajo ha caracterizado el área de Engineering, Multidisciplinary en Colombia, revisándose a nivel institucional a través de la base de datos Web of Science, los trabajos realizados por investigadores en universidades colombianas, y publicados en revistas internacionales con factor de impacto entre 1997 y 2009. En el contexto de América Latina se han publicado 2, 195 trabajos del tipo artículo o revisión en 83 revistas, y a nivel de Colombia se han encontrado 419 artículos publicados en 23 revistas. También se han analizado las Universidades mediante indicadores bibliométricos (Factor de Impacto Ponderado y Relativo y el número medio de citas por documento), encontrándose toda la producción científica localizada en 37 Universidades y destacando la Universidad Nacional de Colombia por el número de documentos, la Universidad Pontificia Bolivariana por la ratio citas frente a documentos, y la Universidad Pedagógica y Tecnológica de Colombia por el Factor de Impacto.
Resumo:
El proposito del trabajo ha sido caracterizar el área de Ingeniería Química en México. Para ello, se ha revisado a nivel institucional, a través de la base de datos Web of Science (WoS), los trabajos sobre Ingeniería Química realizados por investigadores en Instituciones mexicanas y publicados en revistas internacionales con factor de impacto entre 1997 y 2008. Se ha partido del contexto de América Latina, donde se han publicado 6,183 trabajos del tipo artículo o revisión en 119 revistas, y a nivel de México se han encontrado 1,302 artículos publicados en 87 revistas la mayoría en inglés (96.08%), pero también en español (3.69%) y en francés (0.23%). Por otro lado, se han analizado las Universidades y Centros de Investigación desde el punto de vista cuantitativo y cualitativo mediante diversos indicadores bibliométricos como el Factor de Impacto Ponderado, el Factor de Impacto Relativo y la relación entre el número de citas y el número de documentos, encontrándose que de entre las cinco instituciones más productivas destaca el Instituto Mexicano del Petróleo por el número de documentos y la Universidad Nacional Autónoma de México por la relación citas frente a documentos, y por el Factor de Impacto Ponderado.
Resumo:
En este trabajo se analizan las publicaciones procedentes de instituciones españolas recogidas en las revistas de la categoría Construction & Building Technology de la base de datos Web of Science para el periodo 1997-2008. El número de revistas incluidas es de 35 y el número de artículos publicados ha sido de 760 (Article o Review). Se ha realizado una evaluación bibliométrica con dos nuevos parámetros: Factor de Impacto Ponderado y Factor de Impacto Relativo; asimismo se incluyen el número de citas y el número de documentos a nivel institucional. Entre los centros con una mayor producción científica destaca, como era de prever, el Instituto de Ciencias de la Construcción Eduardo Torroja (CSIC), mientras que atendiendo al Factor de Impacto Ponderado ocupa el primer lugar la Universidad de Vigo. Por otro lado, sólo dos revistas Cement and Concrete Research y Materiales de Construcción aglutinan el 45.26% de toda la producción científica española, con 172 trabajos cada una de ellas. En cuanto a la colaboración internacional, destacan países como Inglaterra, México, Estados Unidos, Italia, Argentina y Francia
Resumo:
El prop´osito del trabajo ha sido caracterizar el ´area de Ingenier´ıa Qu´ımica en M´exico. Para ello, se ha revisado a nivel institucional, a trav´es de la base de datos Web of Science (WoS), los trabajos sobre Ingenier´ıa Qu´ımica realizados por investigadores en Instituciones mexicanas y publicados en revistas internacionales con factor de impacto entre 1997 y 2008. Se ha partido del contexto de Am´erica Latina, donde se han publicado 6,183 trabajos del tipo art´ıculo o revisi´on en 119 revistas, y a nivel de M´exico se han encontrado 1,302 art´ıculos publicados en 87 revistas la mayor´ıa en ingl´es (96.08%), pero tambi´en en espa˜nol (3.69%) y en franc´es (0.23%). Por otro lado, se han analizado las Universidades y Centros de Investigaci´on desde el punto de vista cuantitativo y cualitativo mediante diversos indicadores bibliom´etricos como el Factor de Impacto Ponderado, el Factor de Impacto Relativo y la relaci´on entre el n´umero de citas y el n´umero de documentos, encontr´andose que de entre las cinco instituciones m´as productivas destaca el Instituto Mexicano del Petr´oleo por el n´umero de documentos y la Universidad Nacional Aut´onoma de M´exico por la relaci´on citas frente a documentos, y por el Factor de Impacto Ponderado
Resumo:
El propósito del trabajo ha sido caracterizar el área de Agriculture, Multidisciplinary en Argentina, revisándose a nivel institucional, a través de la base de datos Web of Science, los trabajos realizados por investigadores en Instituciones argentinas y publicados en revistas internacionales con factor de impacto entre 1997 y 2009. En el contexto deAmérica Latina, se han publicado 7795 trabajos de todos los tipos documentales y 7622 del tipo artículo o revisión en 49 revistas, y a nivel de Argentina se han encontrado 531 artículos o revisiones publicados en 31 revistas, la mayoría en inglés (80,23%), pero también en español (15,25%) y en portugués (4,33%). Por otro lado, se han analizado las Instituciones desde el punto de vista cuantitativo y cualitativo mediante diversos indicadores bibliométricos, como el Factor de Impacto Ponderado, el Factor de Impacto Relativo y la ratio número de citas frente a número de documentos, encontrándose que entre las instituciones más productivas destacan el Consejo Nacional de Investigaciones Científicas y Técnicas por el número de documentos y el Centro de Investigación y Desarrollo en Criotecnología de Alimentos por el Factor de Impacto Ponderado y por la ratio citas frente a documentos. Se observa una escasa colaboración internacional.
Resumo:
Técnicos de TECNATOM, S.A. e Investigadores de la (UPM), han desarrollado un programa para analizar la logística y los impactos potenciales del transporte por carretera de materiales radiactivos en España. El transporte de materiales radiactivos es un tema de renovado interés en nuestro país debido a la creciente movilidad que cabe esperar, sobre todo tras la entrada en operación del almacén temporal centralizado (ATC) previsto para los próximos años. Este almacén está destinado a residuos de alta actividad, principalmente combustibles gastados de las plantas nucleares españolas, que hasta ahora se han venido depositando en las propias instalaciones generadoras o se enviaban a Francia. Pero ninguna de ambas opciones resulta sostenible técnica o económicamente en el futuro, y de ahí la necesidad del nuevo (ATC)
Resumo:
The Semantic Web is growing at a fast pace, recently boosted by the creation of the Linked Data initiative and principles. Methods, standards, techniques and the state of technology are becoming more mature and therefore are easing the task of publication and consumption of semantic information on the Web.
Resumo:
El proyecto es un Sistema de Información Geográfica y Visor web centrado en las energías renovables solar y eólica, contiene funcionalidad dirigida a facilitar elacceso de los ciudadanos y de las empresas del sector a la información de estas dos energías. Incorpora una herramienta de edición que pretende tener una base de datos actualizada de los parques solares y eólicos de España. Otra orientada al entorno urbano que permite saber la electricidad aproximada que se generaría en la cubierta de un edificio de Vitoria en función del panel solar que se instale en dicha cubierta. También se ha realizado un análisis espacial para encontrar los lugares óptimos para la instalación de paneles solares y eólicos en el País Vasco, se han publicado las capas resultado en el visor para que puedan acceder a ellas cualquier sociedad o empresa que le interese conocer este tipo de información. Para estos análisis se han tenido en cuenta estudios de diferentes universidades e informes de organizaciones como Greenpeace. No obstante, no deja de ser una propuesta objeto de posibles mejoras.