966 resultados para Base de datos EBSCO
Resumo:
En el presente trabajo se estudia la producción potencial de biomasa procedente de los cultivos de centeno y triticale en las seis comarcas agrarias de la Comunidad de Madrid (CM) y la posibilidad de su aplicación a la producción de bioelectricidad en cada una de ellas. En primer lugar se realiza un estudio bibliográfico de la situación actual de la bioelectricidad. Uno de los principales datos a tener en cuenta es que en el PER 2011- 2020 se estima que el total de potencia eléctrica instalada a partir de biomasa en España en el año 2020 sea de 1.350 MW, unas dos veces y media la existente a finales de 2010. Además, se comenta el estado de la incentivación del uso de biomasa de cultivos energéticos para producción de electricidad, la cual se regula actualmente según el Real Decreto-ley 9/2013, de 12 de Julio, por el que se adoptaron medidas urgentes para garantizar la estabilidad financiera del sistema eléctrico, y se consideran los criterios de sostenibilidad en el uso de biocombustibles sólidos. Se realiza una caracterización de las seis comarcas agrarias que forman la Comunidad Autónoma de Madrid: Área Metropolitana, Campiña, Guadarrama, Lozoya- Somosierra, Sur-Occidental y Vegas, la cual consta de dos partes: una descripción de la climatología y otra de la distribución de la superficie dedicada a barbecho y cultivos herbáceos. Se hace una recopilación bibliográfica de los modelos de simulación más representativos de crecimiento de los cultivos (CERES y Cereal YES), así como de ensayos realizados con los cultivos de centeno y triticale para la producción de biomasa y de estudios efectuados mediante herramientas GIS y técnicas de análisis multicriterio para la ubicación de centrales de bioelectricidad y el estudio de la logística de la biomasa. Se propone un modelo de simulación de la productividad de biomasa de centeno y de triticale para la CM, que resulta de la combinación de un modelo de producción de grano en base a datos climatológicos y a la relación biomasa/grano media de ambos cultivos obtenida en una experiencia previa. Los modelos obtenidos responden a las siguientes ecuaciones (siendo TN = temperatura media normalizada a 9,9 ºC y PN = precipitación acumulada normalizada a 496,7 mm): - Producción biomasa centeno (t m.s./ha) = 2,785 * [1,078 * ln(TN + 2*PN) + 2,3256] - Producción biomasa triticale (t m.s./ha) = 2,595 * [2,4495 * ln(TN + 2*PN) + 2,6103] Posteriormente, aplicando los modelos desarrollados, se cuantifica el potencial de producción de biomasa de centeno y triticale en las distintas comarcas agrarias de la CM en cada uno de los escenarios establecidos, que se consideran según el uso de la superficie de barbecho de secano disponible (25%, 50%, 75% y 100%). Las producciones potenciales de biomasa, que se podrían alcanzar en la CM utilizando el 100% de la superficie de barbecho de secano, en base a los cultivos de centeno y triticale, se estimaron en 169.710,72 - 149.811,59 - 140.217,54 - 101.583,01 - 26.961,88 y 1.886,40 t anuales para las comarcas de Campiña - Vegas, Sur - Occidental - Área Metropolitana - Lozoya-Somosierra y Guadarrama, respectivamente. Se realiza un análisis multicriterio basado en la programación de compromiso para definir las comarcas agrarias con mejores características para la ubicación de centrales de bioelectricidad en base a los criterios de potencial de biomasa, infraestructura eléctrica, red de carreteras, espacios protegidos y superficie de núcleos urbanos. Al efectuar el análisis multicriterio, se obtiene la siguiente ordenación jerárquica en base a los criterios establecidos: Campiña, Sur Occidental, Vegas, Área Metropolitana, Lozoya-Somosierra y Guadarrama. Mediante la utilización de técnicas GIS se estudia la localización más conveniente de una central de bioelectricidad de 2,2 MW en cada una de las comarcas agrarias y según el uso de la superficie de barbecho de secano disponible (25%, 50%, 75% y 100%), siempre que exista potencial suficiente. Para el caso de la biomasa de centeno y de triticale en base seca se considera un PCI de 3500 kcal/kg, por lo que se necesitarán como mínimo 17.298,28 toneladas para satisfacer las necesidades de cada una de las centrales de 2,2 MW. Se analiza el potencial máximo de bioelectricidad en cada una de las comarcas agrarias en base a los cultivos de centeno y triticale como productores de biomasa. Según se considere el 25% o el 100% del barbecho de secano para producción de biomasa, la potencia máxima de bioelectricidad que se podría instalar en cada una de las comarcas agrarias variaría entre 5,4 y 21,58 MW en la comarca Campiña, entre 4,76 y 19,05 MW en la comarca Vegas, entre 4,46 y 17,83 MW en la comarca Sur Occidental, entre 3,23 y 12,92 MW en la comarca Área Metropolitana, entre 0,86 y 3,43 MW en la comarca Lozoya Somosierra y entre 0,06 y 0,24 MW en la comarca Guadarrama. La potencia total que se podría instalar en la CM a partir de la biomasa de centeno y triticale podría variar entre 18,76 y 75,06 MW según que se utilice el 25% o el 100% de las tierras de barbecho de secano para su cultivo. ABSTRACT In this work is studied the potential biomass production from rye and triticale crops in the six Madrid Community (MC) agricultural regions and the possibility of its application to the bioelectricity production in each of them. First is performed a bibliographical study of the current situation of bioelectricity. One of the main elements to be considered is that in the PER 2011-2020 is estimated that the total installed electric power from biomass in Spain in 2020 was 1.350 MW, about two and a half times as at end 2010. Also is discussed the status of enhancing the use of biomass energy crops for electricity production, which is currently regulated according to the Real Decreto-ley 9/2013, of July 12, by which urgent measures were adopted to ensure financial stability of the electrical system, and there are considered the sustainability criteria in the use of solid biofuels. A characterization of the six Madrid Community agricultural regions is carried out: Area Metropolitana, Campiña, Guadarrama, Lozoya-Somosierra, Sur-Occidental and Vegas, which consists of two parts: a description of the climatology and another about the distribution of the area under fallow and arable crops. It makes a bibliographic compilation of the most representative crop growth simulation models (CERES and Cereal YES), as well as trials carried out with rye and triticale crops for biomass production and studies conducted by GIS tools and techniques multicriteria analysis for the location of bioelectricity centrals and the study of the logistics of biomass. Is proposed a biomass productivity simulation model for rye and triticale for MC that results from the combination of grain production model based on climatological data and the average relative biomass/grain of both crops obtained in a prior experience. The models obtained correspond to the following equations (where TN = normalized average temperature and PN = normalized accumulated precipitation): - Production rye biomass (t d.m./ha) = 2.785 * [1.078 * ln (TN + 2*PN) + 2.3256] - Production triticale biomass (t d.m./ha) = 2,595 * [2.4495 * ln (TN + 2*PN) + 2.6103] Subsequently, applying the developed models, the biomass potential of the MC agricultural regions is quantified in each of the scenarios established, which are considered as the use of dry fallow area available (25%, 50%, 75 % and 100%). The potential biomass production that can be achieved within the MC using 100% of the rainfed fallow area based on rye and triticale crops, were estimated at 169.710,72 - 149.811,59 - 140.217,54 - 101.583,01 - 26.961,88 and 1.886,40 t annual for the regions of Campiña, Vegas, Sur Occidental, Area Metropolitana, Lozoya- Somosierra and Guadarrama, respectively. A multicriteria analysis is performed, based on compromise programming to define the agricultural regions with better features for the location of bioelectricity centrals, on the basis of biomass potential, electrical infrastructure, road network, protected areas and urban area criteria. Upon multicriteria analysis, is obtained the following hierarchical order based on criteria: Campiña, Sur Occidental, Vegas, Area Metropolitana, Lozoya-Somosierra and Guadarrama. Likewise, through the use of GIS techniques, the most suitable location for a 2,2 MW bioelectricity plant is studied in each of the agricultural regions and according to the use of dry fallow area available (25%, 50% , 75% and 100%), if there is sufficient potential. In the case of biomass rye and triticale dry basis is considered a PCI of 3500 kcal/kg, so it will take at least 17,298.28 t to satisfy the needs of each plant. Is analyzed the maximum bioelectricity potential on each of the agricultural regions on the basis of the rye and triticale crops as biomass producers. As deemed 25% or 100% dry fallow for biomass, the maximum bioelectricity potential varies between 5,4 and 21,58 MW in the Campiña region, between 4,76 and 19,05 MW in the Vegas region, between 4,46 and 17,83 MW in the Sur Occidental region, between 3,23 and 12,92 MW in the Area Metropolitana region, between 0,86 and 3,43 MW in the Lozoya-Somosierra region and between 0,06 and 0,24 MW in the Guadarrama region. The total power that could be installed in the CM from rye and triticale biomass could vary between 18.76 and 75.06 MW if is used the 25% or 100% of fallow land for rainfed crop.
Resumo:
El trabajo presentado a lo largo de este documento es el resultado del TFG1 realizado por Israel Suárez Santiago, alumno de la Escuela Técnica Superior de Ingenieros Informáticos (ETSIINF) de la Universidad Politécnica de Madrid (UPM). Dicho trabajo tiene como finalidad proporcionar una herramienta que, basada en estándares previamente estudiados, permita la fácil creación y gestión de plantillas de mensajes HL7v32 a las que posteriormente se le añadirán datos clínicos que serán insertados en una base de datos para su fácil acceso y consulta. La herramienta desarrollada únicamente facilita una serie de opciones para la creación de la plantilla en sí, que servirá como base para la creación de mensajes HL7v3, es decir, no permite la inclusión de datos específicos en las plantillas generadas, que deberá hacerse con alguna herramienta externa o bien manualmente. Las plantillas generadas por la herramienta se basan principalmente en el estándar CDA3, que proporciona una amplia guía para la correcta generación de mensajes HL7v3. La herramienta garantiza que las plantillas resultantes estarán correctamente formadas, siendo acordes al estándar anteriormente citado y siendo, además, sintácticamente correctas, es decir, el documento .xml generado no contendrá errores. ---ABSTRACT---This document is the result of the TFG developed by Israel Suárez Santiago, student of Escuela Técnica Superior de Ingenieros Informáticos (ETSIINF) of the Universidad Politécnica de Madrid (UPM). This work aims to offer a tool based on standards that can facilitate and manage the creation of HL7v3 templates. Clinical data will be added to those templates in order to load them into a database and query them fast and easily. The tool only facilitates several options to create the template, that will be used to generate the HL7v3 messages, but it does not permit the inclusion of data on them. The inclusion of data will be done manually or using an external tool. The generated templates are based mainly on the CDA1 standard, that provides a widely guide to create HL7v32 messages. The tool guarantees that the resulting templates have been correctly generated, following the previous standard and with no errors in the .xml document generated.
Resumo:
El trabajo fin de grado que se presenta en este documento trata de “Aplicar técnicas de Data Mining a un conjunto de datos procedentes de ataques de virus informáticos interceptados en servidores de Internet”. La propuesta de este trabajo surgió de una Institución con el fin de extraer información de un conjunto de datos proveniente de ejecuciones de virus informáticos. Lamentablemente, debido a fuertes restricciones de privacidad por parte de esta Institución y así como al relevo de la persona responsable de éste área en dicha Institución, el Proyecto finalmente se canceló. Como consecuencia, y teniendo en cuenta el carácter didáctico de este trabajo fin de grado, el proyecto KDD (Knowledge Discovery in Databases) en sí y sus objetivos de negocio y objetivos de data mining, se han establecido conforme con la misma temática de predicción de ataques de virus que había planteado la Institución en el pasado, contando con una base de datos que ha sido recopilada de diferentes empresas anónimas. Para llevar un desarrollo estructurado de todas las fases del proceso KDD, se ha trabajado siguiendo como referencia una metodología para proyectos de Data Mining, “CRISP-DM”, cuyo estándar incluye un modelo y una guía, estructurados en seis fases. Como herramienta de Data Mining a utilizar, se ha elegido el software de libre distribución “WEKA”. Por último, cabe destacar que el proyecto ha concluido satisfactoriamente, lográndose cada una de las metas establecidas como proyecto de minería de datos.
Resumo:
El presente trabajo propone un procedimiento a través del cual un razonador evalúa la información de una base de datos y la clasifica de forma automática en conceptos, relaciones, roles y atributos. Esta clasificación se desarrolla mediante un procedimiento dividido en dos métodos: primero, un Algoritmo de migración el cual genera una ontología con los elementos del esquema relacional de la base de datos. El segundo método es la Estrategia de clasificación de la información, esta consiste en una serie de consultas SPARQL mediante las que se clasifica la información de la base de datos.---ABSTRACT---This paper proposes a method by which a reasoner evaluates information from a database and automatically classifies in concepts, relationships, roles and attributes. This classification is developed through a procedure divided into two methods: first, a migration algorithm which generates an ontology with elements of relational schema database. The second method is the strategy classification of information, this is a series of SPARQL queries through that classified using the information the database.
Resumo:
Los objetivos propios del proyecto propuesto se centran en describir las fases necesarias del proceso de producción de la Base Cartográfica Nacional a escala 1:200.000, cuyo producto final es plasmado en un mapa cartográfico concreto; Mapa Provincial con la misma escala. Todas las tareas esenciales para su elaboración se realizan de acuerdo a la finalidad principal que persigue la creación de un mapa, que es la representación clara y concisa de los elementos geográficos que definen una extensión de territorio. Se pone de manifiesto las normas y reglas específicas que son necesarias para dicha producción, atendiendo las condiciones que presenta el modelo de la base de datos concreta, compuesto por la información válida con carácter oficial, ya que debe estar registrada por las instituciones del Estado, de forma que el conjunto de información sea la más adecuada a la realidad objetiva. Se siguen aquellas pautas referentes a la captura de los datos que componen dicho modelo, teniendo en cuenta la escala cartográfica a la que se representan y ciertas condiciones geométricas. Así como aquellas normas que guían los procesos de controles de calidad y generalización de la información geográfica. También, se establecen de forma fija la serie de estilos de representación de las geometrías componen el mapa, y la simbología utilizada para identificar las entidades definidas mediante elementos puntuales. Las reglas principales descritas son las concernientes a la edición de los conflictos cartográficos producidos a la hora de representar los datos reales. La BCN200 se crea con la finalidad principal de recopilar toda la información cartográfica que define el aspecto y el conjunto de detalles, tanto geográficos y naturales, como aquellos aportados por las construcciones realizadas por el ser humano, de la superficie terrestre que abarca el territorio nacional, con la finalidad de facilitar el desarrollo de tareas semiautomáticas para obtener una producción de diversas elaboraciones cartográficas, digitales o impresas.
Resumo:
El tratamiento de datos masivos es una tendencia cada día más extendida. Una parte fundamental del proceso de análisis de estos datos es su modelado y posterior visualización. El objetivo de este trabajo de fin de Grado, es trabajar con las últimas tecnologías en estos dos campos y lograr tratar una cantidad masiva de datos, que permita analizar la información de una forma interactiva, sencilla e intuitiva. Para el modelado de datos se usará Neo4j, una herramienta de código libre que permite montar una base de datos basada en grafos. Finalmente, la información resultante se visualizará mediante la librería D3 de Javascript, ofertando una visión clara de los datos existente y permitiendo interactuar con ellos para obtener la información que se requiera.
Resumo:
A día de hoy, existen millones de artículos en internet que tratan sobre diferentes temas. Los investigadores hacen búsquedas exhaustivas para encontrar aquellos artículos que encuentran más importantes, los cuales se van descargando en su ordenador llegando a tal extremo que la cantidad de documentos que pueden llegar a tener se vuelve casi inmanejable. El proyecto Calimaco, el cual se está llevando a cabo en el Laboratorio Decoroso Crespo, busca dar soporte a la tarea de búsqueda de información en el ámbito de la investigación, donde la cantidad de información existente es abrumadora. El objetivo es generar una visualización tridimensional de una serie de documentos (corpus), de manera que el usuario pueda explorarlo fácilmente. Además se pretende que dicho proceso se adapte a las necesidades y características particulares del usuario. Esto puede resultar muy útil cuando, por ejemplo, un investigador desea buscar información acerca de un determinado tema dentro de todos sus documentos, ya que el sistema los clasificará en base a dichos temas, permitiéndole acceder a la información relevante de manera rápida y sencilla. La división de este proyecto se compone de dos partes: la primera se corresponde al preprocesamiento de los documentos, mientras que la segunda se encarga de la visualización de los resultados, además de la interactuación del usuario. El trabajo realizado expuesto en esta memoria se sitúa dentro de la parte de preprocesamiento del proyecto Calimaco. La aportación a este proyecto ha consistido en la realización de pruebas y análisis de los resultados, diseño e implementación de una base de datos, e integración de ambas partes, creando una primera versión del sistema. Para comprobar el funcionamiento de esta primera versión se diseñó un plan de pruebas del sistema para medir el tiempo y la precisión.---ABSTRACT---Nowadays, there are millions of articles on the Internet that deal with different topics. Researchers do exhaustive searches to find those articles that are more important for them and download them to their computer, sometimes, reaching a point where the amount of downloaded documents is unmanageable. Calimaco project, which is being carried out at Laboratorio Decoroso Crespo, aims to provide a solution in the task of searching information in terms of investigation, where the amount of information is overwhelming. The goal is to create a tridimensional vision of a set of documents (corpus), so that the user can explore it easily. In addition, this process is intended to adapt to the personal needs and characteristics of the user. This can turn out to be useful when, for example, a researcher wants to seek information about a specific subject inside all his documents, because the system will classify them by subjects, allowing to access relevant information in a fast and easy way. This project is formed by two big sections: the first one corresponds to the pre-process of documents, while the second one is in charge of result visualization as well as the interaction with the user. This memory contains the explanation of the job done in the first part of the Calimaco project, which belongs to the pre-process of documents. The contributions done to the project are: development of tests and analysis of results, a design and implementation of a database, and an integration of both parts (pre-process of documents and result visualization) creating a first version of the system. To test the functioning of this first version, the author created a system test plan in order to gather information about execution time and accuracy.
Resumo:
Poder clasificar de manera precisa la aplicación o programa del que provienen los flujos que conforman el tráfico de uso de Internet dentro de una red permite tanto a empresas como a organismos una útil herramienta de gestión de los recursos de sus redes, así como la posibilidad de establecer políticas de prohibición o priorización de tráfico específico. La proliferación de nuevas aplicaciones y de nuevas técnicas han dificultado el uso de valores conocidos (well-known) en puertos de aplicaciones proporcionados por la IANA (Internet Assigned Numbers Authority) para la detección de dichas aplicaciones. Las redes P2P (Peer to Peer), el uso de puertos no conocidos o aleatorios, y el enmascaramiento de tráfico de muchas aplicaciones en tráfico HTTP y HTTPS con el fin de atravesar firewalls y NATs (Network Address Translation), entre otros, crea la necesidad de nuevos métodos de detección de tráfico. El objetivo de este estudio es desarrollar una serie de prácticas que permitan realizar dicha tarea a través de técnicas que están más allá de la observación de puertos y otros valores conocidos. Existen una serie de metodologías como Deep Packet Inspection (DPI) que se basa en la búsqueda de firmas, signatures, en base a patrones creados por el contenido de los paquetes, incluido el payload, que caracterizan cada aplicación. Otras basadas en el aprendizaje automático de parámetros de los flujos, Machine Learning, que permite determinar mediante análisis estadísticos a qué aplicación pueden pertenecer dichos flujos y, por último, técnicas de carácter más heurístico basadas en la intuición o el conocimiento propio sobre tráfico de red. En concreto, se propone el uso de alguna de las técnicas anteriormente comentadas en conjunto con técnicas de minería de datos como son el Análisis de Componentes Principales (PCA por sus siglas en inglés) y Clustering de estadísticos extraídos de los flujos procedentes de ficheros de tráfico de red. Esto implicará la configuración de diversos parámetros que precisarán de un proceso iterativo de prueba y error que permita dar con una clasificación del tráfico fiable. El resultado ideal sería aquel en el que se pudiera identificar cada aplicación presente en el tráfico en un clúster distinto, o en clusters que agrupen grupos de aplicaciones de similar naturaleza. Para ello, se crearán capturas de tráfico dentro de un entorno controlado e identificando cada tráfico con su aplicación correspondiente, a continuación se extraerán los flujos de dichas capturas. Tras esto, parámetros determinados de los paquetes pertenecientes a dichos flujos serán obtenidos, como por ejemplo la fecha y hora de llagada o la longitud en octetos del paquete IP. Estos parámetros serán cargados en una base de datos MySQL y serán usados para obtener estadísticos que ayuden, en un siguiente paso, a realizar una clasificación de los flujos mediante minería de datos. Concretamente, se usarán las técnicas de PCA y clustering haciendo uso del software RapidMiner. Por último, los resultados obtenidos serán plasmados en una matriz de confusión que nos permitirá que sean valorados correctamente. ABSTRACT. Being able to classify the applications that generate the traffic flows in an Internet network allows companies and organisms to implement efficient resource management policies such as prohibition of specific applications or prioritization of certain application traffic, looking for an optimization of the available bandwidth. The proliferation of new applications and new technics in the last years has made it more difficult to use well-known values assigned by the IANA (Internet Assigned Numbers Authority), like UDP and TCP ports, to identify the traffic. Also, P2P networks and data encapsulation over HTTP and HTTPS traffic has increased the necessity to improve these traffic analysis technics. The aim of this project is to develop a number of techniques that make us able to classify the traffic with more than the simple observation of the well-known ports. There are some proposals that have been created to cover this necessity; Deep Packet Inspection (DPI) tries to find signatures in the packets reading the information contained in them, the payload, looking for patterns that can be used to characterize the applications to which that traffic belongs; Machine Learning procedures work with statistical analysis of the flows, trying to generate an automatic process that learns from those statistical parameters and calculate the likelihood of a flow pertaining to a certain application; Heuristic Techniques, finally, are based in the intuition or the knowledge of the researcher himself about the traffic being analyzed that can help him to characterize the traffic. Specifically, the use of some of the techniques previously mentioned in combination with data mining technics such as Principal Component Analysis (PCA) and Clustering (grouping) of the flows extracted from network traffic captures are proposed. An iterative process based in success and failure will be needed to configure these data mining techniques looking for a reliable traffic classification. The perfect result would be the one in which the traffic flows of each application is grouped correctly in each cluster or in clusters that contain group of applications of similar nature. To do this, network traffic captures will be created in a controlled environment in which every capture is classified and known to pertain to a specific application. Then, for each capture, all the flows will be extracted. These flows will be used to extract from them information such as date and arrival time or the IP length of the packets inside them. This information will be then loaded to a MySQL database where all the packets defining a flow will be classified and also, each flow will be assigned to its specific application. All the information obtained from the packets will be used to generate statistical parameters in order to describe each flow in the best possible way. After that, data mining techniques previously mentioned (PCA and Clustering) will be used on these parameters making use of the software RapidMiner. Finally, the results obtained from the data mining will be compared with the real classification of the flows that can be obtained from the database. A Confusion Matrix will be used for the comparison, letting us measure the veracity of the developed classification process.
Resumo:
La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.
Resumo:
El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.
Resumo:
En este proyecto se ha desarrollado una aplicación Web cuya finalidad es ofrecer al usuario datos provenientes del análisis de texto de las noticias que se encuentran en periódicos online. La aplicación permite al usuario realizar búsquedas personalizadas sobre temáticas específicas y configurar algunos tipos de análisis sobre la información recuperada. Entre los análisis que son llevados a cabo destaca el análisis del sentimiento. Para ello se ofrece la posibilidad de que el usuario utilice sus propios diccionarios de pares palabra-valor, utilizados para realizar este tipo de análisis. Para la codificación de la herramienta, se ha utilizado el lenguaje de programación Python y la framework web Django. El almacenamiento de la información de la aplicación se ha realizado sobre una base de datos NoSQL de tipo MongoDB.
Resumo:
Ejercicios sobre los conceptos desarrollados en la primera parte de las sesiones de teoría (hora1, teoría1).
Resumo:
La segunda hora de las sesiones de teoría se centra en el modelo relacional y tiene un carácter más práctico, de resolución de problemas de aplicación de lo anterior.
Resumo:
En ese curso, este examen se hizo en la última sesión de teoría por lo que se prepararon varias versiones ligeramente diferentes para cada grupo de teoría.
Resumo:
El examen consta de 3 partes: Test de teoría, problemas de teoría y SQL. Hay dos versiones, una para informática y otra para multimedia.