162 resultados para base de datos, oracle, modelo relacional, Diseño e implementación bd
Resumo:
El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.
Resumo:
La presente tesis propone un nuevo método de cartografía de ensayos no destructivos en edificios históricos mediante el uso de técnicas basadas en SIG. Primeramente, se define el método por el cual es posible elaborar y convertir una cartografía 3D basada en nubes de puntos de un elemento arquitectónico obtenida mediante fotogrametría, en cartografía raster y vectorial, legible por los sistemas SIG mediante un sistema de coordenadas particular que referencian cada punto de la nube obtenida por fotogrametría. A esta cartografía inicial la denominaremos cartografía base. Después, se define el método por el cual los puntos donde se realiza un ensayo NDT se referencian al sistema de coordenadas del plano base, lo que permite la generación de cartografías de los ensayos referenciadas y la posibilidad de obtener sobre un mismo plano base diferentes datos de múltiples ensayos. Estas nuevas cartografías las denominaremos cartografías de datos, y se demostrará la utilidad de las mismas en el estudio del deterioro y la humedad. Se incluirá el factor tiempo en las cartografías, y se mostrará cómo este nuevo hecho posibilita el trabajo interdisciplinar en la elaboración del diagnóstico. Finalmente, se generarán nuevas cartografías inéditas hasta entonces consistentes en la combinación de diferentes cartografías de datos con la misma planimetría base. Estas nuevas cartografías, darán pie a la obtención de lo que se ha definido como mapas de isograma de humedad, mapa de isograma de salinidad, factor de humedad, factor de evaporación, factor de salinidad y factor de degradación del material. Mediante este sistema se facilitará una mejor visión del conjunto de los datos obtenidos en el estudio del edificio histórico, lo que favorecerá la correcta y rigurosa interpretación de los datos para su posterior restauración. ABSTRACT This research work proposes a new mapping method of non-destructive testing in historical buildings, by using techniques based on GIS. First of all, the method that makes it possible to produce and convert a 3D map based on cloud points from an architectural element obtained by photogrammetry, are defined, as raster and vector, legible by GIS mapping systems using a particular coordinate system that will refer each cloud point obtained by photogrammetry. This initial mapping will be named base planimetry. Afterwards, the method by which the points where the NDT test is performed are referenced to the coordinate system of the base plane , which allows the generation of maps of the referenced tests and the possibility of obtaining different data from multiple tests on the same base plane. These new maps will be named mapping data and their usefulness will be demonstrated in the deterioration and moisture study. The time factor in maps will be included, and how this new fact will enable the interdisciplinary work in the elaboration of the diagnosis will be proved. Finally, new maps (unpublished until now) will be generated by combining different mapping from the same planimetry data base. These new maps will enable us to obtain what have been called isograma moisture maps, isograma salinity- maps, humidity factor, evaporation factor, salinity factor and the material degradation factor. This system will provide a better vision of all data obtained in the study of historical buildings , and will ease the proper and rigorous data interpretation for its subsequent restoration.
Resumo:
La producción de la voz humana se lleva a cabo en el tracto vocal. Los sintetizadores consiguen emular a las distintas partes del tracto vocal, y gracias a ellos se pueden modificar características propias del hablante. Una de estas modificaciones consiste variar el tono de un locutor inicial, mezclando parámetros de éste con los de un locutor deseado. En este proyecto se ha desarrollado un modelo propuesto para este cambio de identidad. Partiendo de las señales de voz originales se han extraído parámetros para crear una base de datos para cada locutor. Las voces se sintetizarán mezclando estas bases de datos y otros parámetros correspondientes a distintos locutores dando como resultado una señal de voz con características de dos locutores diferentes. Finalmente se realizarán pruebas auditivas para comprobar la identidad del locutor de la voz sintetizada. ABSTRACT. Human voice production is carried out in the vocal tract. Each part of the vocal tract is emulated in synthesizers, and for that, speaker features can be modified. One of these modifications is to change the initial speaker tone, mixing parameters of this speaker with the parameters of a desired speaker. In this project it has been developed a proposed model for this identity change. Starting from the originals voice signals its parameters have been extracted to built a database for each speaker. Voices will be synthesized mixing these databases with parameters of the others speakers giving as result a voice signal with features of two different speakers. Finally, hearing tests will be made to check the speaker identity of the synthesized voice.
Resumo:
Este proyecto fin de carrera tiene como finalidad el diseño y la implementación de un sistema de monitorización y gestión dinámica de redes de sensores y actuadores inalámbricos (Wireless Sensor and Actuator Networks – WSAN) en base a la información de configuración almacenada en una base de datos sobre la cual un motor de detección vigila posibles cambios. Este motor informará de los cambios a la herramienta de gestión y monitorización de la WSAN para que sean llevados a cabo en la red desplegada. Este trabajo se enmarca en otro más amplio cuya finalidad es la demostración de la posibilidad de reconfigurar dinámicamente una WSAN utilizando los mecanismos propios de las Líneas de Productos Software Dinámicos (DSPL, por sus siglas en inglés). Se ha diseñado e implementado el software que proporciona los métodos necesarios para la comunicación y actuación sobre la red de sensores y actuadores inalámbricos, además de permitir el control de cada uno de los dispositivos pertenecientes a dicha red y que los dispositivos se incorporen a dicha red de manera autónoma. El desarrollo y pruebas de este proyecto fin de carrera se ha realizado utilizando una máquina virtual sobre la que se ha configurado convenientemente una plataforma que incluye un emulador de red de sensores y actuadores de tecnología SunSpot (Solarium) y todas las herramientas de desarrollo y ejecución necesarias (entre ellas, SunSpot SDK 6.0 y NetBeans). Esta máquina virtual ejecuta un sistema operativo Unix (Ubuntu Server 12.4) y facilita el rápido despliegue de las herramientas implementadas así como la integración de las mismas en desarrollos más amplios. En esta memoria se describe todo el proceso de diseño e implementación del software desarrollado, las conclusiones obtenidas de su ejecución y una guía de usuario para su despliegue y manejo. ABSTRACT. The aim of this project is the design and implementation of a system to monitor and dynamically manage a wireless sensor and actuator network (WSAN) in consistence with the configuration information stored in a database whose changes are monitored by a so-called monitoring engine. This engine informs the management and monitoring tool about the changes, in order for these to be carried out on the deployed network. This project is a part of a broader one aimed at demonstrating the ability to dynamically reconfigure a WSAN using the mechanisms of the Dynamic Software Product Lines (DSPL). A software has been designed and implemented which provides the methods to communicate with and actuate on the WSAN. It also allows to control each of the devices, as well as their autonomous incorporation to the network. Development and testing of this project was done using a virtual machine that has a conveniently configured platform which includes a SunSpot technology WSAN emulator (Solarium) as well as all the necessary development and implementation tools (including SunSpot 6.0 SDK and NetBeans). This virtual machine runs a Unix (Ubuntu Server 12.4) operating system and makes it easy to rapidly deploy the implemented tools and to integrate them into broader developments. This document explains the whole process of designing and implementing the software, the conclusions of execution and a user's manual.
Resumo:
Para entender el proyecto de una manera muy simplificada lo podríamos resumir de la siguiente forma: Se trata de una aplicación que permite a los usuarios imputar las horas de las tareas que realizan de una forma sencilla, y que los gestores de estos usuarios, mediante informes ejecutivos, puedan analizar las dedicaciones y costes de los proyectos que éstos gestionan. Además se dispondrá de pantallas para administrar todas las entidades que están implicadas en las imputaciones. Las imputaciones se realizarán agrupándolas por el concepto “Parte”. Los Partes dividen los meses en grupos de 10 días, así cada usuario tendrá que imputar las horas que realiza cada 10 días, enviando a su supervisor el parte para que este pueda revisarlo y analizar los resultados de las imputaciones a través de los informes. Vamos a resumir las entidades que intervienen en la aplicación y sus relaciones de la siguiente forma: - Los usuarios tendrán asignados una serie de cargos, los cuales definirán las posibles tareas que podrán realizar categorizadas en los conceptos Proceso y Subproceso. Un ejemplo de esta relación podría ser el cargo “Programador” podrá realizar tareas de tipo Proceso “Desarrollo” y tipos de Subproceso “Programación” y “Pruebas unitarias” - También se asignarán a los usuarios los proyectos en los que trabajan. Estos proyectos pertenecerán a una unidad (se podría equiparar el concepto unidad por ejemplo a clientes, departamentos, etc). - También se podrán asignar a los usuarios las peticiones concretas de proyectos en los que intervienen. Una petición podría ser una incidencia detectada en un proyecto, una mejora concreta en un proyecto de mantenimiento, un soporte realizado para arreglar unos datos incorrectos, etc. - A los usuarios se le asignarán unos costes que podrán ser distintos por periodos de tiempo con el fin de conocer el coste exacto de una hora realizada en la fecha en la que fue realizada. - A los usuarios se les asignará un Perfil de usuario. Este perfil de usuario definirá los permisos sobre los módulos disponibles de la herramienta. Habrá un permiso por cada entidad, dividiéndolos en Alta, Baja, Modificación y Consulta. Además de estos permisos habrá permisos especiales sobre módulos que no se refieran al manteniendo de entidades pero que sí requieran de un permiso especial para poder ejecutarse como por ejemplo poder ejecutar los informes de costes, poder realizar y consultar partes de otros usuarios además de los propios del usuario, etc. Los perfiles serán dinámicos. Se podrán crear tantos perfiles como se requieran, cada uno con los permisos que se le asignen. - Los usuarios imputarán las horas que realizan categorizando por tarea los siguientes conceptos: Proyecto, Petición (opcional), Proceso, Subproceso, Descripción de la tarea y horas invertidas en los días de la decena. La aplicación permite poder adaptarse a las necesidades de diseño de la organización que la utilice y pueden crearse tantas instancias de la aplicación como se necesiten, compartiendo ono la base de datos entre varias de las instancias, sin necesidad de duplicar el código en el servidor, lo que facilita el mantenimiento de la aplicación cuando se añaden mejoras y se solucionan incidencias. También facilita el poder vender licencias de uso de la aplicación a otras entidades teniendo una sola versión de la aplicación en la nube, lo que hace muy bajo el coste de la venta de licencias aumentando así los beneficios por venta. ABSTRACT To understand the project in a very simplified way we could summarize as follows: Its an application that allows users to charge the hours of tasks that they realize in a easy way, and that the managers of these users, by executive reports, can analyze dedications and costs of projects that they manage. Furthermore screens will be available to manage all entities that are involved in the charge of hours. The charge of hours will be grouped by the concept "Timesheet". The Timesheets divided the months in groups of 10 days, so each user will have to charge the hours every 10 days by sending his supervisor the thimesheet so that it can review it and analyze the results of the charges of hours by reports.Let's summarize the entities involved in the application and their relationships as follows: - Users will be assigned to one or more positions, which define the possible tasks that can perform categorized into concepts Process and Subprocess. An example of this relationship could be the position "Developer" may do tasks of process type "Development" and subprocess types "Programming" and "Unit Testing" - Users will also be assigned to projects in which they work. These projects belongs to a unit (Some possible examples of unit could be customers, departments, ...). - You can also assign users to specific requests for projects thar they are involved. A request could be an issue detected in a project, a concrete improvement in a maintenance project, a support made to fix some incorrect data, ... - Users will be assigned to one or more costs that may be different for periods of time in order to know the exact cost of an hour on the date on which it was made. - Users will be assigned to a User Profile. This user profile define the available permissions on modules of tool. There will be a permission for each entity, dividing them into Insert, Delete, Modify and Read. In addition to these permissions will be special permissions on modules that are not related to maintaining entities but if require special permission to execute such as to execute the cost reports, to make and read Timesheets of others users in addition to themselve user, etc. The profiles will be dynamic. We can create many profiles as we required, each with the permissions that are assigned. - Users charge the hours that they work categorizing per task the following: Project, Request (optional), Process, Subprocess, task description and the hours that they used in the ten days period. The application allows to adapt to the needs of design of the organization that use the application and allows create many instances of the application as needed, yes or not sharing the database among multiple instances without duplicating the code on the server, which facilitates maintenance of the application when improvements are added and incidents are resolved. It also facilitates to sell licenses to use the application to other organizations having a single version of the application in the cloud, making it very low cost from the sale of licenses and increasing profits per sale.
Resumo:
El presente proyecto de fin de grado es uno de los resultados generados en un proyecto de financiación privada por parte de Telefónica consistente en el desarrollo y posterior implantación de un sistema para minería de datos de empresas presentes en Internet. Este TFG surge a partir de un proyecto que el grupo de investigación AICU-LABS (Mercator) de la UPM ha desarrollado para Telefónica, y tiene como elemento principal el desarrollo de Agentes web (también llamados robots software, “softbots” o “crawlers”) capaces de obtener datos de empresas a partir de sus CIF a través de internet. El listado de empresas nos los proporciona Telefónica, y está compuesto por empresas que no son clientes de Telefónica en la actualidad. Nuestra misión es proporcionarles los datos necesarios (principalmente teléfono, correo electrónico y dirección de la empresa) para la creación de una base de datos de potenciales clientes. Para llevar a cabo esta tarea, se ha realizado una aplicación que, a partir de los CIF que nos proporcionan, busque información en internet y extraiga aquella que nos interese. Además se han desarrollado sistemas de validación de datos para ayudarnos a descartar datos no válidos y clasificar los datos según su calidad para así maximizar la calidad de los datos producidos por el robot. La búsqueda de datos se hará tanto en bases de datos online como, en caso de localizarlas, las propias páginas web de las empresas. ABSTRACT This Final Degree Project is one of the results obtained from a project funded by Telefónica. This project consists on the development and subsequent implantation of a system which performs data mining on companies operating on the Internet. This document arises from a project the research group AICU-LABS (Mercator) from the Universidad Politécnica de Madrid has developed for Telefónica. The main goal of this project is the creation of web agents (also known as “crawlers” or “web spiders”) able to obtain data from businesses through the Internet, knowing only their VAT identification number. The list of companies is given by Telefónica, and it is composed by companies that are not Telefónica’s customers today. Our mission is to provide the data required (mainly phone, email and address of the company) to create a database of potential customers. To perform this task, we’ve developed an application that, starting with the given VAT numbers, searches the web for information and extracts the data sought. In addition, we have developed data validation systems, that are capable of discarding low quality data and also sorting the data according to their quality, to maximize the quality of the results produced by the robot. We’ll use both the companies’ websites and external databases as our sources of information.
Resumo:
Esta tesis se centra en el análisis de dos aspectos complementarios de la ciberdelincuencia (es decir, el crimen perpetrado a través de la red para ganar dinero). Estos dos aspectos son las máquinas infectadas utilizadas para obtener beneficios económicos de la delincuencia a través de diferentes acciones (como por ejemplo, clickfraud, DDoS, correo no deseado) y la infraestructura de servidores utilizados para gestionar estas máquinas (por ejemplo, C & C, servidores explotadores, servidores de monetización, redirectores). En la primera parte se investiga la exposición a las amenazas de los ordenadores victimas. Para realizar este análisis hemos utilizado los metadatos contenidos en WINE-BR conjunto de datos de Symantec. Este conjunto de datos contiene metadatos de instalación de ficheros ejecutables (por ejemplo, hash del fichero, su editor, fecha de instalación, nombre del fichero, la versión del fichero) proveniente de 8,4 millones de usuarios de Windows. Hemos asociado estos metadatos con las vulnerabilidades en el National Vulnerability Database (NVD) y en el Opens Sourced Vulnerability Database (OSVDB) con el fin de realizar un seguimiento de la decadencia de la vulnerabilidad en el tiempo y observar la rapidez de los usuarios a remiendar sus sistemas y, por tanto, su exposición a posibles ataques. Hemos identificado 3 factores que pueden influir en la actividad de parches de ordenadores victimas: código compartido, el tipo de usuario, exploits. Presentamos 2 nuevos ataques contra el código compartido y un análisis de cómo el conocimiento usuarios y la disponibilidad de exploit influyen en la actividad de aplicación de parches. Para las 80 vulnerabilidades en nuestra base de datos que afectan código compartido entre dos aplicaciones, el tiempo entre el parche libera en las diferentes aplicaciones es hasta 118 das (con una mediana de 11 das) En la segunda parte se proponen nuevas técnicas de sondeo activos para detectar y analizar las infraestructuras de servidores maliciosos. Aprovechamos técnicas de sondaje activo, para detectar servidores maliciosos en el internet. Empezamos con el análisis y la detección de operaciones de servidores explotadores. Como una operación identificamos los servidores que son controlados por las mismas personas y, posiblemente, participan en la misma campaña de infección. Hemos analizado un total de 500 servidores explotadores durante un período de 1 año, donde 2/3 de las operaciones tenían un único servidor y 1/2 por varios servidores. Hemos desarrollado la técnica para detectar servidores explotadores a diferentes tipologías de servidores, (por ejemplo, C & C, servidores de monetización, redirectores) y hemos logrado escala de Internet de sondeo para las distintas categorías de servidores maliciosos. Estas nuevas técnicas se han incorporado en una nueva herramienta llamada CyberProbe. Para detectar estos servidores hemos desarrollado una novedosa técnica llamada Adversarial Fingerprint Generation, que es una metodología para generar un modelo único de solicitud-respuesta para identificar la familia de servidores (es decir, el tipo y la operación que el servidor apartenece). A partir de una fichero de malware y un servidor activo de una determinada familia, CyberProbe puede generar un fingerprint válido para detectar todos los servidores vivos de esa familia. Hemos realizado 11 exploraciones en todo el Internet detectando 151 servidores maliciosos, de estos 151 servidores 75% son desconocidos a bases de datos publicas de servidores maliciosos. Otra cuestión que se plantea mientras se hace la detección de servidores maliciosos es que algunos de estos servidores podrán estar ocultos detrás de un proxy inverso silente. Para identificar la prevalencia de esta configuración de red y mejorar el capacidades de CyberProbe hemos desarrollado RevProbe una nueva herramienta a través del aprovechamiento de leakages en la configuración de la Web proxies inversa puede detectar proxies inversos. RevProbe identifica que el 16% de direcciones IP maliciosas activas analizadas corresponden a proxies inversos, que el 92% de ellos son silenciosos en comparación con 55% para los proxies inversos benignos, y que son utilizado principalmente para equilibrio de carga a través de múltiples servidores. ABSTRACT In this dissertation we investigate two fundamental aspects of cybercrime: the infection of machines used to monetize the crime and the malicious server infrastructures that are used to manage the infected machines. In the first part of this dissertation, we analyze how fast software vendors apply patches to secure client applications, identifying shared code as an important factor in patch deployment. Shared code is code present in multiple programs. When a vulnerability affects shared code the usual linear vulnerability life cycle is not anymore effective to describe how the patch deployment takes place. In this work we show which are the consequences of shared code vulnerabilities and we demonstrate two novel attacks that can be used to exploit this condition. In the second part of this dissertation we analyze malicious server infrastructures, our contributions are: a technique to cluster exploit server operations, a tool named CyberProbe to perform large scale detection of different malicious servers categories, and RevProbe a tool that detects silent reverse proxies. We start by identifying exploit server operations, that are, exploit servers managed by the same people. We investigate a total of 500 exploit servers over a period of more 13 months. We have collected malware from these servers and all the metadata related to the communication with the servers. Thanks to this metadata we have extracted different features to group together servers managed by the same entity (i.e., exploit server operation), we have discovered that 2/3 of the operations have a single server while 1/3 have multiple servers. Next, we present CyberProbe a tool that detects different malicious server types through a novel technique called adversarial fingerprint generation (AFG). The idea behind CyberProbe’s AFG is to run some piece of malware and observe its network communication towards malicious servers. Then it replays this communication to the malicious server and outputs a fingerprint (i.e. a port selection function, a probe generation function and a signature generation function). Once the fingerprint is generated CyberProbe scans the Internet with the fingerprint and finds all the servers of a given family. We have performed a total of 11 Internet wide scans finding 151 new servers starting with 15 seed servers. This gives to CyberProbe a 10 times amplification factor. Moreover we have compared CyberProbe with existing blacklists on the internet finding that only 40% of the server detected by CyberProbe were listed. To enhance the capabilities of CyberProbe we have developed RevProbe, a reverse proxy detection tool that can be integrated with CyberProbe to allow precise detection of silent reverse proxies used to hide malicious servers. RevProbe leverages leakage based detection techniques to detect if a malicious server is hidden behind a silent reverse proxy and the infrastructure of servers behind it. At the core of RevProbe is the analysis of differences in the traffic by interacting with a remote server.
Resumo:
Esta Tesis se centra en el desarrollo de un método para la reconstrucción de bases de datos experimentales incompletas de más de dos dimensiones. Como idea general, consiste en la aplicación iterativa de la descomposición en valores singulares de alto orden sobre la base de datos incompleta. Este nuevo método se inspira en el que ha servido de base para la reconstrucción de huecos en bases de datos bidimensionales inventado por Everson y Sirovich (1995) que a su vez, ha sido mejorado por Beckers y Rixen (2003) y simultáneamente por Venturi y Karniadakis (2004). Además, se ha previsto la adaptación de este nuevo método para tratar el posible ruido característico de bases de datos experimentales y a su vez, bases de datos estructuradas cuya información no forma un hiperrectángulo perfecto. Se usará una base de datos tridimensional de muestra como modelo, obtenida a través de una función transcendental, para calibrar e ilustrar el método. A continuación se detalla un exhaustivo estudio del funcionamiento del método y sus variantes para distintas bases de datos aerodinámicas. En concreto, se usarán tres bases de datos tridimensionales que contienen la distribución de presiones sobre un ala. Una se ha generado a través de un método semi-analítico con la intención de estudiar distintos tipos de discretizaciones espaciales. El resto resultan de dos modelos numéricos calculados en C F D . Por último, el método se aplica a una base de datos experimental de más de tres dimensiones que contiene la medida de fuerzas de una configuración ala de Prandtl obtenida de una campaña de ensayos en túnel de viento, donde se estudiaba un amplio espacio de parámetros geométricos de la configuración que como resultado ha generado una base de datos donde la información está dispersa. ABSTRACT A method based on an iterative application of high order singular value decomposition is derived for the reconstruction of missing data in multidimensional databases. The method is inspired by a seminal gappy reconstruction method for two-dimensional databases invented by Everson and Sirovich (1995) and improved by Beckers and Rixen (2003) and Venturi and Karniadakis (2004). In addition, the method is adapted to treat both noisy and structured-but-nonrectangular databases. The method is calibrated and illustrated using a three-dimensional toy model database that is obtained by discretizing a transcendental function. The performance of the method is tested on three aerodynamic databases for the flow past a wing, one obtained by a semi-analytical method, and two resulting from computational fluid dynamics. The method is finally applied to an experimental database consisting in a non-exhaustive parameter space measurement of forces for a box-wing configuration.
Resumo:
El propósito de este Proyecto Fin de Carrera es el estudio acústico y electroacústico de la realización del musical “Hoy no me puedo levantar” en el Teatro Rialto de Madrid en 2005. En primer lugar, se realiza una breve introducción histórica, citando sus remodelaciones y comentando la situación actual del recinto. Posteriormente, es analizado el equipo de sonido empleado en el espectáculo a partir de cada uno de los distintos controles de sonido: FOH (Front of Hause), monitores y microfonía inalámbrica. De cada uno de ellos se explican sus principales funciones y los sistemas que los conforman. También se describe la utilización de las cabinas insonorizadas. A continuación, se detallan los sistemas electroacústicos (empleados en el diseño) de la sonorización de dicho musical, que se consideran divididos en las siguientes partes: sistema principal, refuerzos y retardos, efectos y monitores. Además, se detalla el software RMS (Remote Monitoring System), que aporta información del funcionamiento de estos sistemas en tiempo real. Seguidamente, se exponen el equipo, procedimiento y resultados de la medida in situ en el Teatro, aplicando la Norma UNE-EN ISO 3382-2/2008 para obtener el tiempo de reverberación y ruido de fondo. Con el objeto de inicializar la simulación por ordenador, primero se exportan los planos originales de AutoCAD a EASE 4.4, donde se finaliza el proceso de modelar el recinto. Posteriormente, se asignan materiales, áreas de audiencia, puntos de escucha y se ubican los sistemas electroacústicos. Se afina el tiempo de reverberación obtenido en la medida in situ mediante materiales de la base de datos del propio software. También se ajustan los sistemas electroacústicos en el recinto para obtener la ecualización empleada y los niveles de presión sonora directo y total para distintas frecuencias. Una vez finalizados los pasos anteriores, se procede a realizar estudios psicoacústicos para comprobar posibles ecos y el efecto precedencia (empleando retardos electrónicos o delays). Finalmente, se realizan estudios de inteligibilidad, en los que se justifica la Claridad de Voz (C50) y Claridad Musical (C80); el Índice de inteligibilidad del habla (SII), la Pérdida de articulación de consonantes (Alcons) y el Índice de transmisión del habla (STI). Por último se expone el presupuesto del proyecto y del alquiler del equipo de sonido del musical y se exponen las conclusiones del Proyecto Final de Carrera. ABSTRACT. The purpose of this Final Degree Project is the acoustic and electro-acoustic study of the musical “Hoy No Me Puedo Levantar” at Teatro Rialto in 2005 (Madrid, Spain). First of all, a brief review of its history is made, quoting its refurbishments and discussing the current situation of this enclosure. Later, the sound equipment of the show is analyzed through every different sound controls: FOH (Front Of House), monitors and wireless microphones. There is also an explanation about their principal functions and systems, as well as a description of the soundproof cabins. Then, the electro-acoustic systems are detailed and divided in the following parts: main system, boosters and delays, effects and monitors. The RMS software (Remote Monitoring System) is described too, since it gives relevant information of the systems operations in real time. Afterwards, equipment, procedures and results of the measurements are exposed, applying the UNE-EN ISO 3382-2/2008 regulation in order to obtain the reverberation time and background noise of the theatre. With the purpose of initialize the computer simulation, original plans are exported from AutoCad to EASE 4.4., where its modeling process is ended. Materials, audience areas, hearing points and electro-acoustic locations are assigned below. At the same time, reverberation time is tuned up using database materials of the software itself. Also, electro-acoustic systems of the enclosure are adjusted to get the equalization and pressure sound levels of the different frequencies. Once previous steps are finished, psycho-acoustic studies are made to check possible echoes and the precedence effect - using electronic delays -. Finally, intelligibility studies are detailed, where the Voice and Musical Clarities are justified: The Speech Intelligibility Index, the Loss of Consonants Articulation and the Talk Transmission Index. This Final Degree Project ends describing the budget and rent of the sound equipment and the final conclusions.
Resumo:
Este proyecto trata el desarrollo de un weblog sobre tecnología e internet siguiendo la Metodología de December, abordando todas sus etapas e incorporando otros aspectos a la metodología que han enriquecido el proyecto hasta su resultado final. Se pretende realizar una aplicación web con la funcionalidad de un weblog centrándose tanto en la parte del usuario final como del administrador de la web. Que este weblog sirva para compartir conocimientos de forma dinámica actualizándose con frecuencia y para usuarios con inquietudes tecnologías y con mayor o menor nivel de conocimientos. Se pone especial interés en la usabilidad de la herramienta y es tenida en cuenta a lo largo de todo el ciclo de vida de la metodología. Como punto de partida para estructurar la aplicación se toma como metodología de desarrollo la metodología December enfocada al desarrollo web y como a partir de ella se da forma a lo que hoy es el proyecto completo. Se tienen en cuenta cada una de sus etapas en las cuales se va avanzando para ir completando cada pieza del desarrollo final. Se intenta también en esta memoria abordar datos más técnicos de la herramienta, desde la elección de los lenguajes utilizados hasta el diseño de la estructura de base de datos, los procesos que intervienen en la aplicación y las decisiones más subjetivas de diseño de la interface web. En todo momento se ha intentado estructurar la memoria de tal forma que resultará clara y concisa, fácil de leer. Plasmando en ella todo el proceso de realización del proyecto. ABSTRACT This project involves the development of a technology and internet weblog following the December’s Methodology, covering all stages and adding other aspects to this methodology that have enriched the project to its final result. I plan to develop a web application with the functionality of a weblog focusing on both, the end user and the webmaster. A weblog to share knowledge in a dynamic and updated way, for users concerned with technologies and different levels of expertise. Special emphasis has been made on the usability of the web tool, taking this aspect into account through the entire methodology’s life cycle. To begin the development, the application structure is based on December’s methodology focused on web development. The whole project is built from this methodology. All the stages have been taken into account to complete each part of the final development. This project deals with technical data of the web tool, from the choice of the programming languages used to the design of the database structure, the processes involved in the application and the subjective decisions of interface design. At all times I have tried to structure the report in a clear, concise and easy to read way, reflecting it in the whole process of the project.
Resumo:
La construcción es uno de los causantes de mayor impacto ambiental y energético en el entorno. Por ello, los profesionales del sector deben empezar a cambiar la manera en la que diseñan la arquitectura, incorporando técnicas y parámetros sostenibles desde las primeras etapas del diseño, controlando la elección de los materiales y las soluciones constructivas. A través de las Declaraciones Ambientales de Producto (DAP) es posible conocer el perfil ambiental de los productos de la construcción, sin embargo, la mayoría de estos documentos solo poseen información de la etapa de producto (A1-A3) y de la etapa de fin de vida, contemplando solo un tipo de tratamiento (vertedero o incineración). Lo que propone esta investigación es generar información medioambiental del resto de las etapas del ciclo de vida relacionado con el producto, haciendo especial hincapié en la etapa de transporte (A4), puesta en obra (A5), transporte de obra a planta de tratamiento (C2) y etapa de fin de vida con vertedero e incineración. Para la realización de la investigación se ha generado un Inventario de Ciclo de Vida (ICV) con valores medios facilitados por las empresas. El ámbito de actuación es la península ibérica, considerándose un transporte en camión. La evaluación ambiental se ha realizado con la herramienta informática SimaPro (versión 7.3.3). Para los procesos que no han podido ser modelizados por falta de información, se ha recurrido a la base de datos Ecoinvent (versión 2.0). Las categorías de impacto analizadas son las contempladas en la UNE-EN ISO 15804+A1. Con esta investigación se propone una catalogación medioambiental del material de aislamiento térmico según los impactos asociados al transporte, puesta en obra y fin de vida del producto para que el prescriptor pueda escoger qué material es el más adecuado a incorporar en el proyecto, desde el punto de vista medioambiental. ABSTRACT _ Construction is one of the main causes of environmental and energy impacts in the environment. Therefore, the professionals of the sector should begin changing the way they design architecture, incorporating sustainable techniques and parameters from the first design stages, controlling the choice of materials and building solutions. It is possible to know the environmental profile of construction products through Environmental Product Declarations (EPD). However, most of these documents only provide information for the product stage (A1-A3) and the end-of-life stage, taking into account only one type of treatment (landfill or incineration). This research proposes the generation of environmental information for the rest of the life cycle stages related to the product, with particular emphasis on the transportstage (A4), construction installation (A5), transport from the construction site to the recycling facilities (C2) and end-of-life stage with landfill and incineration. A Life Cycle Inventory (LCI) has been generated for the development of the research, with mean values provided by the firms. The scope of action is the Iberian Peninsula, considering transport by lorry. The environmental assessment has been carried out with the SimaPro software (version 7.3.3). The Ecoinvent database (version 2.0) has been used for the processes that couldn’t be modelled due to lack of information. The impact categories analysed are those considered in standard UNE-EN ISO 15804+A1. This research proposes an environmental cataloguing of the thermal insulation material depending on the impacts associated with transport, construction installation and end-of-life of the product so that the prescriber might choose which material is the most suitable to implement in the project from an environmental point of view.
Resumo:
El objetivo general de esta investigación consiste en sacar a la luz un conjunto de documentos, los documentos de patentes presentadas en España, sobre un tema concreto, la bicicleta y el ciclismo, y durante un periodo determinado, 1826-1929, presentes en la Oficina Española de Patentes y Marcas (OEPM), organizando esta documentación para su posterior utilización por la comunidad científica. Para ello se han identificado y sistematizado las patentes referidas a la bicicleta, presentadas entre 1826 y 1929, realizando tablas de frecuencia que permitan extraer datos de su incidencia en la invención en el periodo considerado. Ello ha permitido conocer una serie de datos de los inventores, que, en definitiva son los creadores del desarrollo tecnológico en este campo, extrayendo, ordenando y categorizando la información sobre lugar de origen, tipo de inventor (empresa o particular), sexo, práctica de colaboración y profesión. Finalmente se ha estudiado el tipo de inventos, mostrando los sectores en los que se producen las invenciones, identificando si se han puesto en práctica, y determinando aspectos tales como su carácter de invención incremental, su posible consideración como invento raro y curioso, y su coexistencia con una marca registrada. El trabajo se inicia con la introducción seguida de un apartado en el que se presenta el marco teórico en el que se desarrolla la investigación, en una doble vía: en primer lugar el contexto de los documentos de patente, su relación con la innovación y su utilidad como fuentes de información, y en segundo lugar el marco de la invención en el ciclismo, presentando las fases esenciales de la evolución de la bicicleta (capítulo 2). En el marco metodológico (capítulo 3) se explican fuentes y metodología, presentando a continuación el diseño de la investigación, que se resume como sigue: 1- Determinación del universo de datos, 2- Consulta en el Archivo Histórico de la OEPM, 3- Diseño y creación de la base de datos propia, 4- Consulta de los expedientes y toma de imágenes, 5- Tratamiento y análisis de los datos, 6- Búsqueda de información en fuentes para patentes extranjeras, y 7- Consulta a la base de datos de Marcas de la OEPM. El capítulo 4 está dedicado a la investigación propiamente dicha, estructurado en tres grandes bloques. El primero recoge las cuantificaciones tabuladas del total de patentes y el análisis de determinados aspectos generales como la cronología de la invención y diversas comparaciones con resultados obtenidos en otros trabajos. El segundo bloque está centrado en los estudios de solicitantes de patentes, protagonistas de las invenciones. De ellos se contemplan una serie de datos extraídos de los expedientes, y posteriormente tabulados y cuantificados: su procedencia geográfica, su adscripción como empresas o solicitantes particulares, y sus datos de colaboración, finalizando el bloque con un apartado que dedicamos a la innovación femenina, que consideramos una línea de investigación interés. El tercer bloque, el más amplio de todos, está dedicado a la descripción y análisis de los datos referidos a los propios inventos, puesto que es la aplicación de los inventos lo que marca el desarrollo tecnológico de la máquina bicicleta, y su consiguiente evolución histórica y social. Se estructura asimismo en varias secciones. La primera es la más amplia, donde se muestran y explican los datos que tienen que ver con la adscripción de los inventos a sectores temáticos, es decir, que desarrolla las funciones o componentes de la bicicleta que han sido objeto de invención. Los apartados siguientes muestran datos y consideraciones sobre las patentes puestas en práctica, las invenciones incrementales, los inventos curiosos, y las patentes con posible marca registrada de su nombre. Finalmente, las conclusiones del estudio, el establecimiento de posibles líneas abiertas de investigación, la relación de fuentes consultadas y los anexos cerrarán la exposición de esta tesis. ABSTRACT The main goal of this research thesis is to shed light on a specific documentary record: patents presented in Spain, regarding a specific theme: bicycles and cycling, within a given period: 1826-1929. This record is organized for the ulterior use by the scientific community. In order to carry out this goal, the mentioned patents have been identified and systematized, and analyzed for frequency in order to infer the incidence of its invention in the period under consideration. This has brought to light some information on the inventors which are, after all, the creators in the technological development of that field. Their bibliographical information: origin, type of inventor (company or individual), gender, collaboration behavior and profession. Finally, the type of inventions has been studied, showing the sectors in which inventions are produced, whether these were transferred to practice, and other key information like the incremental nature of their invention, their possible consideration as ‘rare or curious invention’, and their coexistence with a registered trademark. This thesis is organized with an initial introduction, after which a section outlines the theoretical framework for the research along two axes: first the context of the patent documents, their relation with innovation and their usefulness as information sources; second, the invention of cycling and the development phases of bicycles. In the methodological section the sources and methodology are explained and reasoned, followed by the research design: 1-determination of the data universe, 2-consultation at the historical archive of the OEPM (National Patent Office), 3-design and creation of a database, 3-analysis of the files and image catchment, 5-treatment and analysis of data, 6-browsing of source information for foreign patents, and 7-consultation of the trademark information at the OEPM. Chapter 4 is dedicated to research itself, in three main sections. The first one has the quantification of the patent total in tables and the analysis of specific overall chronological aspects of the invention, and some comparisons with the results obtained in other research. The second section is centered on the studies of patent requests and inventors. Some data extracted from the files has been systematized: geographical origin, adscriptions as companies or individuals, and their collaboration data, ending with a sub-section on women’s invention, which we consider an interesting research line. The third section, the biggest one of them all, is dedicated to the description and analysis of the data referred to the inventions themselves, because it is the application of the inventions which constitutes the technological development of the bicycle, and therefore its historical and social evolution. It is also structured in various sub-sections. The first one is the longest one, with information regarding the thematic typology of the inventions: functions and bicycle components which are innovated. The other ensuing subsections study patents which were actually incorporated and used, incremental inventions, curious inventions and patents with possible associated trademarks. Finally, the study conclusions, the establishment of lines of potential further research, the references used, and the annexes which culminate the thesis exposition.