138 resultados para web 3.0


Relevância:

100.00% 100.00%

Publicador:

Resumo:

El trabajo ha caracterizado el área de Engineering, Multidisciplinary en Colombia, revisándose a nivel institucional a través de la base de datos Web of Science, los trabajos realizados por investigadores en universidades colombianas, y publicados en revistas internacionales con factor de impacto entre 1997 y 2009. En el contexto de América Latina se han publicado 2, 195 trabajos del tipo artículo o revisión en 83 revistas, y a nivel de Colombia se han encontrado 419 artículos publicados en 23 revistas. También se han analizado las Universidades mediante indicadores bibliométricos (Factor de Impacto Ponderado y Relativo y el número medio de citas por documento), encontrándose toda la producción científica localizada en 37 Universidades y destacando la Universidad Nacional de Colombia por el número de documentos, la Universidad Pontificia Bolivariana por la ratio citas frente a documentos, y la Universidad Pedagógica y Tecnológica de Colombia por el Factor de Impacto.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proposito del trabajo ha sido caracterizar el área de Ingeniería Química en México. Para ello, se ha revisado a nivel institucional, a través de la base de datos Web of Science (WoS), los trabajos sobre Ingeniería Química realizados por investigadores en Instituciones mexicanas y publicados en revistas internacionales con factor de impacto entre 1997 y 2008. Se ha partido del contexto de América Latina, donde se han publicado 6,183 trabajos del tipo artículo o revisión en 119 revistas, y a nivel de México se han encontrado 1,302 artículos publicados en 87 revistas la mayoría en inglés (96.08%), pero también en español (3.69%) y en francés (0.23%). Por otro lado, se han analizado las Universidades y Centros de Investigación desde el punto de vista cuantitativo y cualitativo mediante diversos indicadores bibliométricos como el Factor de Impacto Ponderado, el Factor de Impacto Relativo y la relación entre el número de citas y el número de documentos, encontrándose que de entre las cinco instituciones más productivas destaca el Instituto Mexicano del Petróleo por el número de documentos y la Universidad Nacional Autónoma de México por la relación citas frente a documentos, y por el Factor de Impacto Ponderado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

En este trabajo se analizan las publicaciones procedentes de instituciones españolas recogidas en las revistas de la categoría Construction & Building Technology de la base de datos Web of Science para el periodo 1997-2008. El número de revistas incluidas es de 35 y el número de artículos publicados ha sido de 760 (Article o Review). Se ha realizado una evaluación bibliométrica con dos nuevos parámetros: Factor de Impacto Ponderado y Factor de Impacto Relativo; asimismo se incluyen el número de citas y el número de documentos a nivel institucional. Entre los centros con una mayor producción científica destaca, como era de prever, el Instituto de Ciencias de la Construcción Eduardo Torroja (CSIC), mientras que atendiendo al Factor de Impacto Ponderado ocupa el primer lugar la Universidad de Vigo. Por otro lado, sólo dos revistas Cement and Concrete Research y Materiales de Construcción aglutinan el 45.26% de toda la producción científica española, con 172 trabajos cada una de ellas. En cuanto a la colaboración internacional, destacan países como Inglaterra, México, Estados Unidos, Italia, Argentina y Francia

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El prop´osito del trabajo ha sido caracterizar el ´area de Ingenier´ıa Qu´ımica en M´exico. Para ello, se ha revisado a nivel institucional, a trav´es de la base de datos Web of Science (WoS), los trabajos sobre Ingenier´ıa Qu´ımica realizados por investigadores en Instituciones mexicanas y publicados en revistas internacionales con factor de impacto entre 1997 y 2008. Se ha partido del contexto de Am´erica Latina, donde se han publicado 6,183 trabajos del tipo art´ıculo o revisi´on en 119 revistas, y a nivel de M´exico se han encontrado 1,302 art´ıculos publicados en 87 revistas la mayor´ıa en ingl´es (96.08%), pero tambi´en en espa˜nol (3.69%) y en franc´es (0.23%). Por otro lado, se han analizado las Universidades y Centros de Investigaci´on desde el punto de vista cuantitativo y cualitativo mediante diversos indicadores bibliom´etricos como el Factor de Impacto Ponderado, el Factor de Impacto Relativo y la relaci´on entre el n´umero de citas y el n´umero de documentos, encontr´andose que de entre las cinco instituciones m´as productivas destaca el Instituto Mexicano del Petr´oleo por el n´umero de documentos y la Universidad Nacional Aut´onoma de M´exico por la relaci´on citas frente a documentos, y por el Factor de Impacto Ponderado

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El propósito del trabajo ha sido caracterizar el área de Agriculture, Multidisciplinary en Argentina, revisándose a nivel institucional, a través de la base de datos Web of Science, los trabajos realizados por investigadores en Instituciones argentinas y publicados en revistas internacionales con factor de impacto entre 1997 y 2009. En el contexto deAmérica Latina, se han publicado 7795 trabajos de todos los tipos documentales y 7622 del tipo artículo o revisión en 49 revistas, y a nivel de Argentina se han encontrado 531 artículos o revisiones publicados en 31 revistas, la mayoría en inglés (80,23%), pero también en español (15,25%) y en portugués (4,33%). Por otro lado, se han analizado las Instituciones desde el punto de vista cuantitativo y cualitativo mediante diversos indicadores bibliométricos, como el Factor de Impacto Ponderado, el Factor de Impacto Relativo y la ratio número de citas frente a número de documentos, encontrándose que entre las instituciones más productivas destacan el Consejo Nacional de Investigaciones Científicas y Técnicas por el número de documentos y el Centro de Investigación y Desarrollo en Criotecnología de Alimentos por el Factor de Impacto Ponderado y por la ratio citas frente a documentos. Se observa una escasa colaboración internacional.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Técnicos de TECNATOM, S.A. e Investigadores de la (UPM), han desarrollado un programa para analizar la logística y los impactos potenciales del transporte por carretera de materiales radiactivos en España. El transporte de materiales radiactivos es un tema de renovado interés en nuestro país debido a la creciente movilidad que cabe esperar, sobre todo tras la entrada en operación del almacén temporal centralizado (ATC) previsto para los próximos años. Este almacén está destinado a residuos de alta actividad, principalmente combustibles gastados de las plantas nucleares españolas, que hasta ahora se han venido depositando en las propias instalaciones generadoras o se enviaban a Francia. Pero ninguna de ambas opciones resulta sostenible técnica o económicamente en el futuro, y de ahí la necesidad del nuevo (ATC)

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El proyecto es un Sistema de Información Geográfica y Visor web centrado en las energías renovables solar y eólica, contiene funcionalidad dirigida a facilitar elacceso de los ciudadanos y de las empresas del sector a la información de estas dos energías. Incorpora una herramienta de edición que pretende tener una base de datos actualizada de los parques solares y eólicos de España. Otra orientada al entorno urbano que permite saber la electricidad aproximada que se generaría en la cubierta de un edificio de Vitoria en función del panel solar que se instale en dicha cubierta. También se ha realizado un análisis espacial para encontrar los lugares óptimos para la instalación de paneles solares y eólicos en el País Vasco, se han publicado las capas resultado en el visor para que puedan acceder a ellas cualquier sociedad o empresa que le interese conocer este tipo de información. Para estos análisis se han tenido en cuenta estudios de diferentes universidades e informes de organizaciones como Greenpeace. No obstante, no deja de ser una propuesta objeto de posibles mejoras.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This PhD thesis contributes to the problem of resource and service discovery in the context of the composable web. In the current web, mashup technologies allow developers reusing services and contents to build new web applications. However, developers face a problem of information flood when searching for appropriate services or resources for their combination. To contribute to overcoming this problem, a framework is defined for the discovery of services and resources. In this framework, three levels are defined for performing discovery at content, discovery and agente levels. The content level involves the information available in web resources. The web follows the Representational Stateless Transfer (REST) architectural style, in which resources are returned as representations from servers to clients. These representations usually employ the HyperText Markup Language (HTML), which, along with Content Style Sheets (CSS), describes the markup employed to render representations in a web browser. Although the use of SemanticWeb standards such as Resource Description Framework (RDF) make this architecture suitable for automatic processes to use the information present in web resources, these standards are too often not employed, so automation must rely on processing HTML. This process, often referred as Screen Scraping in the literature, is the content discovery according to the proposed framework. At this level, discovery rules indicate how the different pieces of data in resources’ representations are mapped onto semantic entities. By processing discovery rules on web resources, semantically described contents can be obtained out of them. The service level involves the operations that can be performed on the web. The current web allows users to perform different tasks such as search, blogging, e-commerce, or social networking. To describe the possible services in RESTful architectures, a high-level feature-oriented service methodology is proposed at this level. This lightweight description framework allows defining service discovery rules to identify operations in interactions with REST resources. The discovery is thus performed by applying discovery rules to contents discovered in REST interactions, in a novel process called service probing. Also, service discovery can be performed by modelling services as contents, i.e., by retrieving Application Programming Interface (API) documentation and API listings in service registries such as ProgrammableWeb. For this, a unified model for composable components in Mashup-Driven Development (MDD) has been defined after the analysis of service repositories from the web. The agent level involves the orchestration of the discovery of services and contents. At this level, agent rules allow to specify behaviours for crawling and executing services, which results in the fulfilment of a high-level goal. Agent rules are plans that allow introspecting the discovered data and services from the web and the knowledge present in service and content discovery rules to anticipate the contents and services to be found on specific resources from the web. By the definition of plans, an agent can be configured to target specific resources. The discovery framework has been evaluated on different scenarios, each one covering different levels of the framework. Contenidos a la Carta project deals with the mashing-up of news from electronic newspapers, and the framework was used for the discovery and extraction of pieces of news from the web. Similarly, in Resulta and VulneraNET projects the discovery of ideas and security knowledge in the web is covered, respectively. The service level is covered in the OMELETTE project, where mashup components such as services and widgets are discovered from component repositories from the web. The agent level is applied to the crawling of services and news in these scenarios, highlighting how the semantic description of rules and extracted data can provide complex behaviours and orchestrations of tasks in the web. The main contributions of the thesis are the unified framework for discovery, which allows configuring agents to perform automated tasks. Also, a scraping ontology has been defined for the construction of mappings for scraping web resources. A novel first-order logic rule induction algorithm is defined for the automated construction and maintenance of these mappings out of the visual information in web resources. Additionally, a common unified model for the discovery of services is defined, which allows sharing service descriptions. Future work comprises the further extension of service probing, resource ranking, the extension of the Scraping Ontology, extensions of the agent model, and contructing a base of discovery rules. Resumen La presente tesis doctoral contribuye al problema de descubrimiento de servicios y recursos en el contexto de la web combinable. En la web actual, las tecnologías de combinación de aplicaciones permiten a los desarrolladores reutilizar servicios y contenidos para construir nuevas aplicaciones web. Pese a todo, los desarrolladores afrontan un problema de saturación de información a la hora de buscar servicios o recursos apropiados para su combinación. Para contribuir a la solución de este problema, se propone un marco de trabajo para el descubrimiento de servicios y recursos. En este marco, se definen tres capas sobre las que se realiza descubrimiento a nivel de contenido, servicio y agente. El nivel de contenido involucra a la información disponible en recursos web. La web sigue el estilo arquitectónico Representational Stateless Transfer (REST), en el que los recursos son devueltos como representaciones por parte de los servidores a los clientes. Estas representaciones normalmente emplean el lenguaje de marcado HyperText Markup Language (HTML), que, unido al estándar Content Style Sheets (CSS), describe el marcado empleado para mostrar representaciones en un navegador web. Aunque el uso de estándares de la web semántica como Resource Description Framework (RDF) hace apta esta arquitectura para su uso por procesos automatizados, estos estándares no son empleados en muchas ocasiones, por lo que cualquier automatización debe basarse en el procesado del marcado HTML. Este proceso, normalmente conocido como Screen Scraping en la literatura, es el descubrimiento de contenidos en el marco de trabajo propuesto. En este nivel, un conjunto de reglas de descubrimiento indican cómo los diferentes datos en las representaciones de recursos se corresponden con entidades semánticas. Al procesar estas reglas sobre recursos web, pueden obtenerse contenidos descritos semánticamente. El nivel de servicio involucra las operaciones que pueden ser llevadas a cabo en la web. Actualmente, los usuarios de la web pueden realizar diversas tareas como búsqueda, blogging, comercio electrónico o redes sociales. Para describir los posibles servicios en arquitecturas REST, se propone en este nivel una metodología de alto nivel para descubrimiento de servicios orientada a funcionalidades. Este marco de descubrimiento ligero permite definir reglas de descubrimiento de servicios para identificar operaciones en interacciones con recursos REST. Este descubrimiento es por tanto llevado a cabo al aplicar las reglas de descubrimiento sobre contenidos descubiertos en interacciones REST, en un nuevo procedimiento llamado sondeo de servicios. Además, el descubrimiento de servicios puede ser llevado a cabo mediante el modelado de servicios como contenidos. Es decir, mediante la recuperación de documentación de Application Programming Interfaces (APIs) y listas de APIs en registros de servicios como ProgrammableWeb. Para ello, se ha definido un modelo unificado de componentes combinables para Mashup-Driven Development (MDD) tras el análisis de repositorios de servicios de la web. El nivel de agente involucra la orquestación del descubrimiento de servicios y contenidos. En este nivel, las reglas de nivel de agente permiten especificar comportamientos para el rastreo y ejecución de servicios, lo que permite la consecución de metas de mayor nivel. Las reglas de los agentes son planes que permiten la introspección sobre los datos y servicios descubiertos, así como sobre el conocimiento presente en las reglas de descubrimiento de servicios y contenidos para anticipar contenidos y servicios por encontrar en recursos específicos de la web. Mediante la definición de planes, un agente puede ser configurado para descubrir recursos específicos. El marco de descubrimiento ha sido evaluado sobre diferentes escenarios, cada uno cubriendo distintos niveles del marco. El proyecto Contenidos a la Carta trata de la combinación de noticias de periódicos digitales, y en él el framework se ha empleado para el descubrimiento y extracción de noticias de la web. De manera análoga, en los proyectos Resulta y VulneraNET se ha llevado a cabo un descubrimiento de ideas y de conocimientos de seguridad, respectivamente. El nivel de servicio se cubre en el proyecto OMELETTE, en el que componentes combinables como servicios y widgets se descubren en repositorios de componentes de la web. El nivel de agente se aplica al rastreo de servicios y noticias en estos escenarios, mostrando cómo la descripción semántica de reglas y datos extraídos permiten proporcionar comportamientos complejos y orquestaciones de tareas en la web. Las principales contribuciones de la tesis son el marco de trabajo unificado para descubrimiento, que permite configurar agentes para realizar tareas automatizadas. Además, una ontología de extracción ha sido definida para la construcción de correspondencias y extraer información de recursos web. Asimismo, un algoritmo para la inducción de reglas de lógica de primer orden se ha definido para la construcción y el mantenimiento de estas correspondencias a partir de la información visual de recursos web. Adicionalmente, se ha definido un modelo común y unificado para el descubrimiento de servicios que permite la compartición de descripciones de servicios. Como trabajos futuros se considera la extensión del sondeo de servicios, clasificación de recursos, extensión de la ontología de extracción y la construcción de una base de reglas de descubrimiento.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In this introductory chapter we put in context and give a brief outline of the work that we thoroughly present in the rest of the dissertation. We consider this work divided in two main parts. The first part is the Firenze Framework, a knowledge level description framework rich enough to express the semantics required for describing both semantic Web services and semantic Grid services. We start by defining what the Semantic Grid is and its relation with the Semantic Web; and the possibility of their convergence since both initiatives have become mainly service-oriented. We also introduce the main motivators of the creation of this framework, one is to provide a valid description framework that works at knowledge level; the other to provide a description framework that takes into account the characteristics of Grid services in order to be able to describe them properly. The other part of the dissertation is devoted to Vega, an event-driven architecture that, by means of proposed knowledge level description framework, is able to achieve high scale provisioning of knowledge-intensive services. In this introductory chapter we portrait the anatomy of a generic event-driven architecture, and we briefly enumerate their main characteristics, which are the reason that make them our choice.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

CoLogNetWS is a Web-site on Computational Logic systems, environments, and implementation technology. CoLogNetWS provides at the same time:A simple WWW interface which allows the users to access/modify the data stored in its database. An automatic data exchange between CoLogNetWS and the rest of Web-sites, in order to keep their databases up-to-date. This document constitutes an internals manual, providing information on how the different internal parts of CoLogNetWS are connected.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Because of the growing availability of third-party APIs, services, widgets and any other reusable web component, mashup developers now face a vast amount of candidate components for their developments. Moreover, these components quite often are scattered in many different repositories and web sites, which makes difficult their selection or discovery. In this paper, we discuss the problem of component selection in Service-Oriented Architectures (SOA) and Mashup-Driven Development, and introduce the Linked Mashups Ontology (LiMOn), a model that allows describing mashups and their components for integrating and sharing mashup information such as categorization or dependencies. The model has allowed the building of an integrated, centralized metadirectory of web components for query and selection, which has served to evaluate the model. The metadirectory allows accessing various heterogeneous repositories of mashups and web components while using external information from the Linked Data cloud, helping mashup development.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The Networks of Evolutionary Processors (NEPs) are computing mechanisms directly inspired from the behavior of cell populations more specifically the point mutations in DNA strands. These mechanisms are been used for solving NP-complete problems by means of a parallel computation postulation. This paper describes an implementation of the basic model of NEP using Web technologies and includes the possibility of designing some of the most common variants of it by means the use of the web page design which eases the configuration of a given problem. It is a system intended to be used in a multicore processor in order to benefit from the multi thread use.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

RESUMEN Este trabajo nace con la necesidad de ofrecer un Sistema de Información Geográfico implantado en un entorno Web, para una comunidad de usuarios,que proporcione información sobre recursos, instalaciones y servicios que se ofrecen localizados espacialmente. Se trata de estudiar y seleccionar ciertos objetos de interés relevantes para una Comunidad universitaria, en concreto se ha utilizado el Campus Sur de la Universidad Politécnica de Madrid. Estos objetos serán representados en su localización geográfica, sobre el mapa de los exteriores del Campus o sobre planos digitalizados de los interiores de algunos de los edificios que lo componen. La Escuela Universitaria de Informática es la utilizada para el prototipo presentado en este trabajo. Además los objetos de interés llevarán asociada información temática con distintos formatos. Este sistema podrá aplicarse en la planificación de futuras obras, tanto nuevas como de remodelación, de los elementos que constituyen el Campus como, edificios,caminos, aparcamientos, etc. SUMMARY: This work comes with the need to provide a Geographic Information System,implanted in a web environment, for a user community, which gives information on resources, facilities and services offered at a university spatially located. That consists in to study and select some objects of interest, relevant for a University community; in particular the South Campus of the Polytechnic University of Madrid where it has been used. These objects will be represented in their geographic location, over the outside map of the Campus or over digitized maps which represent the interiors of some Campus buildings. The Computer Science University School is used in the prototype shown in this paper. Also, the interest objects will have associated thematic information in different formats. This system may be applied in the planning of future works, both new and remodeling, of the elements that constitute the Campus such as buildings,roads, car parks, etc.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

El desarrollo de este Proyecto Fin de Carrera se ha enmarcado dentro del diseño e implementación de una plataforma, denominada Gauss, para la gestión del seguimiento de la calidad en las titulaciones de Grado y Máster de la Universidad Politécnica de Madrid (UPM). Esta aplicación ha sido desarrollada bajo el liderazgo del Vicerrectorado de Estructura Organizativa y Calidad (VEOC), con el apoyo del personal de la Unidad de Calidad de dicho Vicerrectorado y del Servicio de Planificación de Sistemas de Información (SPSI) del Vicerrectorado de Nuevas Tecnologías y Comunicación de la UPM, así como de los tutores del proyecto y otras personas que han formado parte del equipo de desarrollo a cargo del autor, por parte de la Facultad de Informática de la Universidad. El Proyecto se centra en el estudio del uso de las prácticas ágiles de desarrollo para la realización de los análisis de usabilidad y la gestión del diseño e implementación de la mencionada plataforma. Se pretende sentar las bases del uso de las prácticas ágiles dentro del proceso de diseño y estructuración de los análisis de usabilidad y de la implementación en proyectos en los que se realiza un diseño centrado en el usuario, donde la primera impresión del usuario debe ser positiva y la capacidad de retomar el uso de la plataforma desarrollada tras un largo tiempo no suponga un impedimento extra en su normal funcionamiento. El uso de las prácticas ágiles se ha aplicado tanto al desarrollo de la plataforma como a la gestión de los hitos alcanzables para que a lo largo de las diversas iteraciones el producto obtenido fuera lo más estable posible, desarrollando y evaluando diversas partes de la plataforma. Finalmente, se ha analizado el impacto que pueden tener este tipo de prácticas, sus puntos fuertes y débiles en este tipo de proyectos, así como posibles puntos de mejora y posibles líneas futuras de este proyecto. En el capítulo 1 se realiza una introducción al proyecto y se exponen sus objetivos. En el capítulo 2 se realiza un análisis detallado sobre el estado del arte, comentando los ciclos de vida tradicionales del software, las prácticas ágiles más destacadas, así como distintos conceptos relacionados con la usabilidad. En el capítulo 3 se analiza la problemática en este proyecto y se detallan las prácticas ágiles utilizadas. En el capítulo 4 se presentan las conclusiones del trabajo. En el capítulo 5 se proponen diversas líneas de trabajo futuras.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Semantic Sensor Web infrastructures use ontology-based models to represent the data that they manage; however, up to now, these ontological models do not allow representing all the characteristics of distributed, heterogeneous, and web-accessible sensor data. This paper describes a core ontological model for Semantic Sensor Web infrastructures that covers these characteristics and that has been built with a focus on reusability. This ontological model is composed of different modules that deal, on the one hand, with infrastructure data and, on the other hand, with data from a specific domain, that is, the coastal flood emergency planning domain. The paper also presents a set of guidelines, followed during the ontological model development, to satisfy a common set of requirements related to modelling domain-specific features of interest and properties. In addition, the paper includes the results obtained after an exhaustive evaluation of the developed ontologies along different aspects (i.e., vocabulary, syntax, structure, semantics, representation, and context).