76 resultados para Corcho

em Universidad Politécnica de Madrid


Relevância:

20.00% 20.00%

Publicador:

Resumo:

El objetivo de este trabajo es evaluar el potencial de la espectroscopía en el infrarrojo cercano combinada con análisis multivariante para identificar el origen geográfico de planchas y tapones de corcho natural. Se utilizaron tres colectivos, el primero formado por 479 planchas de Marruecos, Portugal y España (escala internacional), el segundo por 179 planchas de Andalucía, Cataluña y Extremadura (escala nacional) y el tercero por 90 tapones de Andalucía y Cataluña. Se obtuvieron los datos espectroscópicos de las planchas y tapones en la sección transversal y de los tapones las secciones tangencial y radial, con un espectrofotómetro FossNIRSSystems 6500SYII mediante sonda de fibra óptica en la modalidad de reflectancia remota y longitudes de onda 400-2500 nm. Se obtuvieron diferentes modelos discriminantes mediante PLS2 con el 70% de las muestras, utilizándose el otro 30% en la validación. Se clasificaron correctamente el 98% de las planchas a escala internacional, el 95% de las planchas a escala nacional y el 90% de los tapones (sección transversal), en la calibración y en la validación. Los resultados obtenidos demuestran el potencial de la tecnología NIRS para utilizarse como método rápido y exacto en la predicción de la procedencia geográfica del corcho en plancha y tapón.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La calidad de las planchas de corcho, entendida como su aptitud para la fabricación de tapones de corcho natural, determina la clase comercial de las mismas y, por tanto, su valor económico. Esta clasificación, llevada a cabo tradicionalmente en la industria preparadora por el escogedor, depende en gran medida de las anomalías presentes en la plancha. Con el objetivo de conocer qué variables entran en juego en la clasificación y cuál es el peso de cada una de ellas, se han realizado diferentes estudios. García de Ceca (2001) propone modelos de clasificación de piezas de corcho en plancha de 20 cm x 20 cm, elaborados con muestras procedentes de las principales regiones productoras de corcho a nivel global: Portugal, España y Marruecos En el presente estudio se lleva cabo la validación de los modelos propuestos por el citado autor, utilizando ahora piezas procedentes de las principales regiones productoras a nivel nacional (Andalucía, Extremadura y Cataluña), obtenidas en muestreos completamente independientes de los utilizados en la elaboración de los modelos. A la vista de los resultados obtenidos, se proponen medidas para la mejora y actualización de los modelos, atendiendo a criterios tecnológicos, normativos y científicos. Por último, se desarrolla un software para la clasificación de muestras de corcho por gestores y propietarios, al que se añade un breve manual metodológico. Los modelos de García de Ceca (2001) resultan aplicables para las procedencias españolas, obteniendo un 79,66% y un 75,39% de aciertos en la clasificación de piezas, para los modelos 2TC y 2TR respectivamente. Se han incluido modificaciones relativas a la presencia de mancha amarilla, los calibres demasiado delgados para la fabricación de tapones y la superficie ocupada por anomalías, consiguiendo elevar los resultados de acierto al 86,27% y 89,12%. Por último, se ha desarrollado una aplicación en Visual Basic® for Applications sobre Microsoft Excel® que permite la clasificación de corcho por personal no especializado, a partir de la metodología descrita en el manual.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento es una aplicación informática, programada en Visual Basic® para Microsoft Excel®, y contiene un programa denominado CorkClass 1.0. Es un software de clasificación de corcho en plancha por calidades a partir de su calibre – grosor – y de las anomalías o singularidades apreciables en su sección transversal. CorkClass 1.0 trabaja con dos clases de calidad: corcho taponable y refugo. A partir de la valoración de las variables obtenida por el usuario, la aplicación decide a qué clase pertenece la pieza. Esta clasificación se realiza en base a dos modelos. Cuando disponemos de medida del coeficiente de porosidad (mediante métodos de análisis de imagen), podemos clasificar en base al modelo completo (2TC) o al reducido (2TR), aunque los resultados generales se mostrarán tomando la clasificación del modelo completo para cada pieza. En caso de no disponer de medida del coeficiente de porosidad, la clasificación se realizará únicamente en base al modelo reducido (2TR), cuya clasificación para cada pieza será tomada para el cálculo de los resultados generales . El programa ha sido desarrollado por la UPM y el INIA-CIFOR y validado para muestras procedentes tanto de las distintas regiones de España como del resto de regiones de procedencia del alcornoque (Quercus suber L.), por lo que su ámbito de aplicación es universal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El corcho es un material ligero y maleable, aislante, ignífugo e impermeable, por ello ha sido muy utilizado como material de aislamiento térmico. Su origen es natural, renovable y apto para ser reciclado, por lo que parece obvio que pueda ser un material con un buen comportamiento ambiental. Además, el 80% de la producción de corcho existente en el mundo se encuentra en la Península Ibérica, generando alrededor de 200.000 toneladas (en campo) al año y cuyo valor económico ronda los 240 millones de euros. Este valor puede llegar hasta los 1.000 millones de euros en las sucesivas transformaciones del corcho. Para la caracterización ambiental del corcho se recurrirá a la metodología de Análisis de Ciclo de Vida (ACV), ya que es una de las más completas para la evaluación ambiental de productos. El artículo que aquí se presenta desarrolla el sistema de producción del corcho granulado y de los paneles de corcho aglomerado para poder realizar el ICV de dichos productos y que sirva de base para un futuro ACV con límites de sistema de la cuna a la tumba.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

El documento es una aplicación informática, programada en Visual Basic® para Microsoft Excel®, y contiene un programa denominado CorkClass 1.1. Es un software de clasificación de corcho en plancha por calidades a partir de su calibre – grosor – y de las anomalías o singularidades apreciables en su sección transversal. CorkClass 1.1 trabaja con dos clases de calidad: corcho taponable y refugo. A partir de la valoración de las variables obtenida por el usuario, la aplicación decide a qué clase pertenece la pieza. Esta clasificación se realiza en base a dos modelos. Cuando disponemos de medida del coeficiente de porosidad (mediante métodos de análisis de imagen), podemos clasificar en base al modelo completo (2TC) o al reducido (2TR), aunque los resultados generales se mostrarán tomando la clasificación del modelo completo para cada pieza. En caso de no disponer de medida del coeficiente de porosidad, la clasificación se realizará únicamente en base al modelo reducido (2TR), cuya clasificación para cada pieza será tomada para el cálculo de los resultados generales . El programa ha sido desarrollado por la UPM y el INIA-CIFOR y validado para muestras procedentes tanto de las distintas regiones de España como del resto de regiones de procedencia del alcornoque (Quercus suber L.), por lo que su ámbito de aplicación es universal.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

We present the data structures and algorithms used in the approach for building domain ontologies from folksonomies and linked data. In this approach we extracts domain terms from folksonomies and enrich them with semantic information from the Linked Open Data cloud. As a result, we obtain a domain ontology that combines the emergent knowledge of social tagging systems with formal knowledge from Ontologies.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

This paper describes a method for identifying topics in text published in social media, by applying topic recognition techniques that exploit DBpedia. We evaluate such method for social media in Spanish and we provide the results of the evaluation performed.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Abstract Web 2.0 applications enabled users to classify information resources using their own vocabularies. The bottom-up nature of these user-generated classification systems have turned them into interesting knowledge sources, since they provide a rich terminology generated by potentially large user communities. Previous research has shown that it is possible to elicit some emergent semantics from the aggregation of individual classifications in these systems. However the generation of ontologies from them is still an open research problem. In this thesis we address the problem of how to tap into user-generated classification systems for building domain ontologies. Our objective is to design a method to develop domain ontologies from user-generated classifications systems. To do so, we rely on ontologies in the Web of Data to formalize the semantics of the knowledge collected from the classification system. Current ontology development methodologies have recognized the importance of reusing knowledge from existing resources. Thus, our work is framed within the NeOn methodology scenario for building ontologies by reusing and reengineering non-ontological resources. The main contributions of this work are: An integrated method to develop ontologies from user-generated classification systems. With this method we extract a domain terminology from the classification system and then we formalize the semantics of this terminology by reusing ontologies in the Web of Data. Identification and adaptation of existing techniques for implementing the activities in the method so that they can fulfill the requirements of each activity. A novel study about emerging semantics in user-generated lists. Resumen La web 2.0 permitió a los usuarios clasificar recursos de información usando su propio vocabulario. Estos sistemas de clasificación generados por usuarios son recursos interesantes para la extracción de conocimiento debido principalmente a que proveen una extensa terminología generada por grandes comunidades de usuarios. Se ha demostrado en investigaciones previas que es posible obtener una semántica emergente de estos sistemas. Sin embargo la generación de ontologías a partir de ellos es todavía un problema de investigación abierto. Esta tesis trata el problema de cómo aprovechar los sistemas de clasificación generados por usuarios en la construcción de ontologías de dominio. Así el objetivo de la tesis es diseñar un método para desarrollar ontologías de dominio a partir de sistemas de clasificación generados por usuarios. El método propuesto reutiliza conceptualizaciones existentes en ontologías publicadas en la Web de Datos para formalizar la semántica del conocimiento que se extrae del sistema de clasificación. Por tanto, este trabajo está enmarcado dentro del escenario para desarrollar ontologías mediante la reutilización y reingeniería de recursos no ontológicos que se ha definido en la Metodología NeOn. Las principales contribuciones de este trabajo son: Un método integrado para desarrollar una ontología de dominio a partir de sistemas de clasificación generados por usuarios. En este método se extrae una terminología de dominio del sistema de clasificación y posteriormente se formaliza su semántica reutilizando ontologías en la Web de Datos. La identificación y adaptación de un conjunto de técnicas para implementar las actividades propuestas en el método de tal manera que puedan cumplir automáticamente los requerimientos de cada actividad. Un novedoso estudio acerca de la semántica emergente en las listas generadas por usuarios en la Web.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Publishing Linked Data is a process that involves several design decisions and technologies. Although some initial guidelines have been already provided by Linked Data publishers, these are still far from covering all the steps that are necessary (from data source selection to publication) or giving enough details about all these steps, technologies, intermediate products, etc. Furthermore, given the variety of data sources from which Linked Data can be generated, we believe that it is possible to have a single and uni�ed method for publishing Linked Data, but we should rely on di�erent techniques, technologies and tools for particular datasets of a given domain. In this paper we present a general method for publishing Linked Data and the application of the method to cover di�erent sources from di�erent domains.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Recently we have seen a large increase in the amount of geospatial data that is being published using RDF and Linked Data principles. Eorts such as the W3C Geo XG, and most recently the GeoSPARQL initiative are providing the necessary vocabularies to pub- lish this kind of information on the Web of Data. In this context it is necessary to develop applications that consume and take advantage of these geospatial datasets. In this paper we present map4rdf, a faceted browsing tool for exploring and visualizing RDF datasets enhanced with geospatial information.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Provenance plays a major role when understanding and reusing the methods applied in a scientic experiment, as it provides a record of inputs, the processes carried out and the use and generation of intermediate and nal results. In the specic case of in-silico scientic experiments, a large variety of scientic workflow systems (e.g., Wings, Taverna, Galaxy, Vistrails) have been created to support scientists. All of these systems produce some sort of provenance about the executions of the workflows that encode scientic experiments. However, provenance is normally recorded at a very low level of detail, which complicates the understanding of what happened during execution. In this paper we propose an approach to automatically obtain abstractions from low-level provenance data by finding common workflow fragments on workflow execution provenance and relating them to templates. We have tested our approach with a dataset of workflows published by the Wings workflow system. Our results show that by using these kinds of abstractions we can highlight the most common abstract methods used in the executions of a repository, relating different runs and workflow templates with each other.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Sensor networks are increasingly becoming one of the main sources of Big Data on the Web. However, the observations that they produce are made available with heterogeneous schemas, vocabularies and data formats, making it difficult to share and reuse these data for other purposes than those for which they were originally set up. In this thesis we address these challenges, considering how we can transform streaming raw data to rich ontology-based information that is accessible through continuous queries for streaming data. Our main contribution is an ontology-based approach for providing data access and query capabilities to streaming data sources, allowing users to express their needs at a conceptual level, independent of implementation and language-specific details. We introduce novel query rewriting and data translation techniques that rely on mapping definitions relating streaming data models to ontological concepts. Specific contributions include: • The syntax and semantics of the SPARQLStream query language for ontologybased data access, and a query rewriting approach for transforming SPARQLStream queries into streaming algebra expressions. • The design of an ontology-based streaming data access engine that can internally reuse an existing data stream engine, complex event processor or sensor middleware, using R2RML mappings for defining relationships between streaming data models and ontology concepts. Concerning the sensor metadata of such streaming data sources, we have investigated how we can use raw measurements to characterize streaming data, producing enriched data descriptions in terms of ontological models. Our specific contributions are: • A representation of sensor data time series that captures gradient information that is useful to characterize types of sensor data. • A method for classifying sensor data time series and determining the type of data, using data mining techniques, and a method for extracting semantic sensor metadata features from the time series.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RDB2RDF systems generate RDF from relational databases, operating in two dierent manners: materializing the database content into RDF or acting as virtual RDF datastores that transform SPARQL queries into SQL. In the former, inferences on the RDF data (taking into account the ontologies that they are related to) are normally done by the RDF triple store where the RDF data is materialised and hence the results of the query answering process depend on the store. In the latter, existing RDB2RDF systems do not normally perform such inferences at query time. This paper shows how the algorithm used in the REQUIEM system, focused on handling run-time inferences for query answering, can be adapted to handle such inferences for query answering in combination with RDB2RDF systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

RDB2RDF systems generate RDF from relational databases, operating in two di�erent manners: materializing the database content into RDF or acting as virtual RDF datastores that transform SPARQL queries into SQL. In the former, inferences on the RDF data (taking into account the ontologies that they are related to) are normally done by the RDF triple store where the RDF data is materialised and hence the results of the query answering process depend on the store. In the latter, existing RDB2RDF systems do not normally perform such inferences at query time. This paper shows how the algorithm used in the REQUIEM system, focused on handling run-time inferences for query answering, can be adapted to handle such inferences for query answering in combination with RDB2RDF systems.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

In this paper the authors present an approach for the semantic annotation of RESTful services in the geospatial domain. Their approach automates some stages of the annotation process, by using a combination of resources and services: a cross-domain knowledge base like DBpedia, two domain ontologies like GeoNames and the WGS84 vocabulary, and suggestion and synonym services. The authors’ approach has been successfully evaluated with a set of geospatial RESTful services obtained from ProgrammableWeb.com, where geospatial services account for a third of the total amount of services available in this registry.