72 resultados para Current systems
em Universidad Politécnica de Madrid
Resumo:
This paper describes a model of persistence in (C)LP languages and two different and practically very useful ways to implement this model in current systems. The fundamental idea is that persistence is a characteristic of certain dynamic predicates (Le., those which encapsulate state). The main effect of declaring a predicate persistent is that the dynamic changes made to such predicates persist from one execution to the next one. After proposing a syntax for declaring persistent predicates, a simple, file-based implementation of the concept is presented and some examples shown. An additional implementation is presented which stores persistent predicates in an external datábase. The abstraction of the concept of persistence from its implementation allows developing applications which can store their persistent predicates alternatively in files or databases with only a few simple changes to a declaration stating the location and modality used for persistent storage. The paper presents the model, the implementation approach in both the cases of using files and relational databases, a number of optimizations of the process (using information obtained from static global analysis and goal clustering), and performance results from an implementation of these ideas.
Resumo:
This paper describes a model of persistence in (C)LP languages and two different and practically very useful ways to implement this model in current systems. The fundamental idea is that persistence is a characteristic of certain dynamic predicates (i.e., those which encapsulate state). The main effect of declaring a predicate persistent is that the dynamic changes made to such predicates persist from one execution to the next one. After proposing a syntax for declaring persistent predicates, a simple, file-based implementation of the concept is presented and some examples shown. An additional implementation is presented which stores persistent predicates in an external database. The abstraction of the concept of persistence from its implementation allows developing applications which can store their persistent predicates alternatively in files or databases with only a few simple changes to a declaration stating the location and modality used for persistent storage. The paper presents the model, the implementation approach in both the cases of using files and relational databases, a number of optimizations of the process (using information obtained from static global analysis and goal clustering), and performance results from an implementation of these ideas.
Resumo:
Software testing is a key aspect of software reliability and quality assurance in a context where software development constantly has to overcome mammoth challenges in a continuously changing environment. One of the characteristics of software testing is that it has a large intellectual capital component and can thus benefit from the use of the experience gained from past projects. Software testing can, then, potentially benefit from solutions provided by the knowledge management discipline. There are in fact a number of proposals concerning effective knowledge management related to several software engineering processes. Objective: We defend the use of a lesson learned system for software testing. The reason is that such a system is an effective knowledge management resource enabling testers and managers to take advantage of the experience locked away in the brains of the testers. To do this, the experience has to be gathered, disseminated and reused. Method: After analyzing the proposals for managing software testing experience, significant weaknesses have been detected in the current systems of this type. The architectural model proposed here for lesson learned systems is designed to try to avoid these weaknesses. This model (i) defines the structure of the software testing lessons learned; (ii) sets up procedures for lesson learned management; and (iii) supports the design of software tools to manage the lessons learned. Results: A different approach, based on the management of the lessons learned that software testing engineers gather from everyday experience, with two basic goals: usefulness and applicability. Conclusion: The architectural model proposed here lays the groundwork to overcome the obstacles to sharing and reusing experience gained in the software testing and test management. As such, it provides guidance for developing software testing lesson learned systems.
Resumo:
Global analyzers traditionally read and analyze the entire program at once, in a nonincremental way. However, there are many situations which are not well suited to this simple model and which instead require reanalysis of certain parts of a program which has already been analyzed. In these cases, it appears inecient to perform the analysis of the program again from scratch, as needs to be done with current systems. We describe how the xed-point algorithms used in current generic analysis engines for (constraint) logic programming languages can be extended to support incremental analysis. The possible changes to a program are classied into three types: addition, deletion, and arbitrary change. For each one of these, we provide one or more algorithms for identifying the parts of the analysis that must be recomputed and for performing the actual recomputation. The potential benets and drawbacks of these algorithms are discussed. Finally, we present some experimental results obtained with an implementation of the algorithms in the PLAI generic abstract interpretation framework. The results show signicant benets when using the proposed incremental analysis algorithms.
Resumo:
Este trabajo tiene por objetivo el estudio de ahorro energético en una explotación ganadera. Para ello, se contempla la posibilidad de sustituir los sistemas actuales por otros alimentados de energía solar, geotérmica o eólica. La energía obtenida a partir de la producción de metano a través de la utilización de los purines no se contempla, debido a que son utilizados como abono en las parcelas colindantes. PUNTOS TRATADOS Se parte de que, en la explotación, la calefacción es de gas natural y la electricidad es generada por un grupo electrógeno. Estudio de la irradiancia de la zona y de la cantidad de paneles solares y baterías necesarios para hacer la explotación ganadera autosuficiente. Estudio del potencial eólico de la zona y de la cantidad de aerogeneradores y baterías necesarios para hacer la explotación ganadera autosuficiente. Estudio del potencial calorífico de la zona y de la cantidad de tubos, bombas de calor y baterías necesarios para hacer la explotación ganadera autosuficiente. Cálculo de los costes de la instalación solar, eólica y geotérmica. Comparación de los resultados obtenidos anteriormente y breve discusión sobre el sistema elegido. ABSTRACT OBJETIVES This job has got like objective the energetic saving study in a cattle exploitation. For it, it is contemplated the possibility of replacing the current systems with others fed on solar, wind and geothermal power. Energy obtained across production of methane across animal organic wastes it is not contemplated, because they are used as fertilizer on adjacent smallholdings. TREATED POINTS It is parted of that, in the exploitation, heating is propane and electricity is generated by an electrical generator. Study about irradiance on the place and quantity of solar panels and batteries to doing self-sufficient the cattle exploitation. Study about wind potential on the place and quantity of wind generators and batteries to doing self-sufficient the cattle exploitation. Study about calorific potential into ground and quantity of pipes, heat pumps and batteries to doing self-sufficient the cattle exploitation. Calculation about solar, wind and geothermal installation costs. Comparison about results have been obtained and brief discussion about chosen system
Resumo:
El objetivo de la presente tesis doctoral es el desarrollo e implementación de un sistema para mejorar la metodología de extracción de la información geométrica necesaria asociada a los procesos de documentación de entidades de interés patrimonial, a partir de la información proporcionada por el empleo de sensores láser, tanto aéreos como terrestres. Para ello, inicialmente se realiza una presentación y justificación de los antecedentes y la problemática en el registro de información geométrica para el patrimonio, detallando todos aquellos sistemas de registro y análisis de la información geométrica utilizados en la actualidad. Este análisis permitirá realizar la comparación con los sistemas de registro basados en técnicas láser, aportando sugerencias de utilización para cada caso concreto. Posteriormente, se detallan los sistemas de registro basados en técnicas láser, comenzando por los sensores aerotransportados y concluyendo con el análisis pormenorizado de los sensores terrestres, tanto en su aplicación en modo estático como móvil. Se exponen las características técnicas y funcionamiento de cada uno de ellos, así como los ámbitos de aplicación y productos generados. Se analizan las fuentes de error que determinan la precisión que puede alcanzar el sistema. Tras la exposición de las características de los sistemas LiDAR, se detallan los procesos a realizar con los datos extraídos para poder generar la información necesaria para los diferentes tipos de objetos analizados. En esta exposición, se hace hincapié en los posibles riesgos que pueden ocurrir en algunas fases delicadas y se analizarán los diferentes algoritmos de filtrado y clasificación de los puntos, fundamentales en el procesamiento de la información LiDAR. Seguidamente, se propone una alternativa para optimizar los modelos de procesamiento existentes, basándose en el desarrollo de algoritmos nuevos y herramientas informáticas que mejoran el rendimiento en la gestión de la información LiDAR. En la implementación, se han tenido en cuenta características y necesidades particulares de la documentación de entidades de interés patrimonial, así como los diferentes ámbitos de utilización del LiDAR, tanto aéreo como terrestre. El resultado es un organigrama de las tareas a realizar desde la nube de puntos LiDAR hasta el cálculo de los modelos digitales del terreno y de superficies. Para llevar a cabo esta propuesta, se han desarrollado hasta 19 algoritmos diferentes que comprenden implementaciones para el modelado en 2.5D y 3D, visualización, edición, filtrado y clasificación de datos LiDAR, incorporación de información de sensores pasivos y cálculo de mapas derivados, tanto raster como vectoriales, como pueden ser mapas de curvas de nivel y ortofotos. Finalmente, para dar validez y consistencia a los desarrollos propuestos, se han realizado ensayos en diferentes escenarios posibles en un proceso de documentación del patrimonio y que abarcan desde proyectos con sensores aerotransportados, proyectos con sensores terrestres estáticos a media y corta distancia, así como un proyecto con un sensor terrestre móvil. Estos ensayos han permitido definir los diferentes parámetros necesarios para el adecuado funcionamiento de los algoritmos propuestos. Asimismo, se han realizado pruebas objetivas expuestas por la ISPRS para la evaluación y comparación del funcionamiento de algoritmos de clasificación LiDAR. Estas pruebas han permitido extraer datos de rendimiento y efectividad del algoritmo de clasificación presentado, permitiendo su comparación con otros algoritmos de prestigio existentes. Los resultados obtenidos han constatado el funcionamiento satisfactorio de la herramienta. Esta tesis está enmarcada dentro del proyecto Consolider-Ingenio 2010: “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) realizado por el Consejo Superior de Investigaciones Científicas y la Universidad Politécnica de Madrid. ABSTRACT: The goal of this thesis is the design, development and implementation of a system to improve the extraction of useful geometric information in Heritage documentation processes. This system is based on information provided by laser sensors, both aerial and terrestrial. Firstly, a presentation of recording geometric information for Heritage processes is done. Then, a justification of the background and problems is done too. Here, current systems for recording and analyzing the geometric information are studied. This analysis will perform the comparison with the laser system techniques, providing suggestions of use for each specific case. Next, recording systems based on laser techniques are detailed. This study starts with airborne sensors and ends with terrestrial ones, both in static and mobile application. The technical characteristics and operation of each of them are described, as well as the areas of application and generated products. Error sources are also analyzed in order to know the precision this technology can achieve. Following the presentation of the LiDAR system characteristics, the processes to generate the required information for different types of scanned objects are described; the emphasis is on the potential risks that some steps can produce. Moreover different filtering and classification algorithms are analyzed, because of their main role in LiDAR processing. Then, an alternative to optimize existing processing models is proposed. It is based on the development of new algorithms and tools that improve the performance in LiDAR data management. In this implementation, characteristics and needs of the documentation of Heritage entities have been taken into account. Besides, different areas of use of LiDAR are considered, both air and terrestrial. The result is a flowchart of tasks from the LiDAR point cloud to the calculation of digital terrain models and digital surface models. Up to 19 different algorithms have been developed to implement this proposal. These algorithms include implementations for 2.5D and 3D modeling, viewing, editing, filtering and classification of LiDAR data, incorporating information from passive sensors and calculation of derived maps, both raster and vector, such as contour maps and orthophotos. Finally, in order to validate and give consistency to the proposed developments, tests in different cases have been executed. These tests have been selected to cover different possible scenarios in the Heritage documentation process. They include from projects with airborne sensors, static terrestrial sensors (medium and short distances) to mobile terrestrial sensor projects. These tests have helped to define the different parameters necessary for the appropriate functioning of the proposed algorithms. Furthermore, proposed tests from ISPRS have been tested. These tests have allowed evaluating the LiDAR classification algorithm performance and comparing it to others. Therefore, they have made feasible to obtain performance data and effectiveness of the developed classification algorithm. The results have confirmed the reliability of the tool. This investigation is framed within Consolider-Ingenio 2010 project titled “Programa de investigación en tecnologías para la valoración y conservación del patrimonio cultural” (ref. CSD2007-00058) by Consejo Superior de Investigaciones Científicas and Universidad Politécnica de Madrid.
Resumo:
Global analyzers traditionally read and analyze the entire program at once, in a non-incremental way. However, there are many situations which are not well suited to this simple model and which instead require reanalysis of certain parts of a program which has already been analyzed. In these cases, it appears inefficient to perform the analysis of the program again from scratch, as needs to be done with current systems. We describe how the fixpoint algorithms in current generic analysis engines can be extended to support incremental analysis. The possible changes to a program are classified into three types: addition, deletion, and arbitrary change. For each one of these, we provide one or more algorithms for identifying the parts of the analysis that must be recomputed and for performing the actual recomputation. The potential benefits and drawbacks of these algorithms are discussed. Finally, we present some experimental results obtained with an implementation of the algorithms in the PLAI generic abstract interpretation framework. The results show significant benefits when using the proposed incremental analysis algorithms.
Resumo:
Developing a herd localization system capable to operate unattended in communication-challenged areas arises from the necessity of improving current systems in terms of cost, autonomy or any other facilities that a certain target group (or overall users) may demand. A network architecture of herd localization is proposed with its corresponding hardware and a methodology to assess performance in different operating conditions. The system is designed taking into account an eventual environmental impact hence most nodes are simple, cheap and kinetically powered from animal movements-neither batteries nor sophisticated processor chips are needed. Other network elements integrating GPS and batteries operate with selectable duty cycles, thus reducing maintenance duties. Equipment has been tested on Scandinavian reindeer in Lapland and its element modeling is integrated into a simulator to analyze such localization network applicability for different use cases. Performance indicators (detection frequency, localization accuracy and delay) are fitted to assess the overall performance; system relative costs are enclosed also for a range of deployments.
Resumo:
La mineralogía de procesos se ha convertido en los últimos años en una herramienta indispensable dentro del ámbito minero-metalúrgico debido fundamentalmente a la emergencia de la Geometalurgia. Esta disciplina en auge, a través de la integración de datos geológicos, mineros y metalúrgicos, proporciona la información necesaria para que el circuito de concentración mineral pueda responder de manera rápida y eficaz a la variabilidad mineralógica inherente a la geología del yacimiento. Para la generación del modelo geometalúrgico, la mineralogía de procesos debe aportar datos cuantitativos sobre los rasgos mineralógicos influyentes en el comportamiento de los minerales y para ello se apoya en el uso de sistemas de análisis mineralógico automatizado. Estos sistemas son capaces de proporcionar gran cantidad de datos mineralógicos de manera rápida y precisa. Sin embargo, cuando se trata de la caracterización de la textura, el mineralogista debe recurrir a descripciones cualitativas basadas en la observación, ya que los sistemas actuales no ofrecen información textural automatizada. Esta tesis doctoral surge precisamente para proporcionar de manera sistemática información textural relevante para los procesos de concentración mineral. La tesis tiene como objetivo principal la identificación y caracterización del tipo de intercrecimiento que un determinado mineral presenta en las partículas minerales, e inicialmente se han tenido en cuenta los siete tipos de intercrecimiento considerados como los más relevantes bajo el punto de vista del comportamiento de las partículas minerales durante flotación, lixiviación y molienda. Para alcanzar este objetivo se ha desarrollado una metodología basada en el diseño y cálculo de una serie de índices numéricos, a los que se ha llamado índices mineralúrgicos, que cumplen una doble función: por un lado, cada índice aporta información relevante para caracterizar los principales rasgos mineralógicos que gobiernan el comportamiento de las partículas minerales a lo largo de los procesos de concentración y por otro lado, estos índices sirven como variables discriminantes para identificar el tipo de intercrecimiento mineral mediante la aplicación de Análisis Discriminante. Dentro del conjunto de índices propuestos en este trabajo, se han considerado algunos índices propuestos por otros autores para su aplicación tanto en el ámbito de la mineralogía como en otros ámbitos de la ciencia de materiales. Se trata del Índice de Contigüidad (Gurland, 1958), Índice de Intercrecimiento (Amstutz y Giger, 1972) e Índice de Coordinación (Jeulin, 1981), adaptados en este caso para el análisis de partículas minerales. El diseño de los índices se ha basado en los principios básicos de la Estereología y el análisis digital de imagen, y su cálculo se ha llevado a cabo aplicando el método de interceptos lineales mediante la programación en MATLAB de varias rutinas. Este método estereológico permite recoger una serie de medidas a partir de las que es posible calcular varios parámetros, tanto estereológicos como geométricos, que han servido de base para calcular los índices mineralúrgicos. Para evaluar la capacidad discriminatoria de los índices mineralúrgicos se han seleccionado 200 casos en los que se puede reconocer de manera clara alguno de los siete tipos de intercrecimiento considerados inicialmente en este trabajo. Para cada uno de estos casos se han calculado los índices mineralúrgicos y se ha aplicado Análisis Discriminante, obteniendo un porcentaje de acierto en la clasificación del 95%. Esta cifra indica que los índices propuestos son discriminadores fiables del tipo de intercrecimiento. Una vez probada la capacidad discriminatoria de los índices, la metodología desarrollada ha sido aplicada para caracterizar una muestra de un concentrado de cobre procedente de la mina Kansanshi (Zambia). Esta caracterización se ha llevado a cabo para obtener la distribución de calcopirita según su tipo de intercrecimiento. La utilidad de esta distribución ha sido analizada bajo diferentes puntos de vista y en todos ellos los índices mineralúrgicos aportan información valiosa para caracterizar el comportamiento mineralúrgico de las partículas minerales. Los resultados derivados tanto del Análisis Discriminante como de la caracterización del concentrado de Kansanshi muestran la fiabilidad, utilidad y versatilidad de la metodología desarrollada, por lo que su integración como herramienta rutinaria en los sistemas actuales de análisis mineralógico pondría a disposición del mineralurgista gran cantidad de información textural complementaria a la información ofrecida por las técnicas actuales de caracterización mineralógica. ABSTRACT Process mineralogy has become in the last decades an essential tool in the mining and metallurgical sphere, especially driven by the emergence of Geometallurgy. This emergent discipline provides required information to efficiently tailor the circuit performance to the mineralogical variability inherent to ore deposits. To contribute to the Geometallurgical model, process mineralogy must provide quantitative data about the main mineralogical features implied in the minerallurgical behaviour of minerals. To address this characterisation, process mineralogy relies on automated systems. These systems are capable of providing a large amount of data quickly and accurately. However, when it comes to the characterisation of texture, mineralogists need to turn to qualitative descriptions based on observation, due to the fact that current systems can not offer quantitative textural information in a routine way. Aiming at the automated characterisation of textural information, this doctoral thesis arises to provide textural information relevant for concentration processes in a systematic way. The main objective of the thesis is the automated identification and characterisation of intergrowth types in mineral particles. Initially, the seven intergrowth types most relevant for flotation, leaching and grinding are considered. To achieve this goal, a methodology has been developed based on the computation of a set of numerical indices, which have been called minerallurgical indices. These indices have been designed with two main purposes: on the one hand, each index provides information to characterise the main mineralogical features which determine particle behaviour during concentration processes and, on the other hand, these indices are used as discriminant variables for identifying the intergrowth type by Discriminant Analysis. Along with the indices developed in this work, three indices proposed by other authors belonging to different fields of materials science have been also considered after being adapted to the analysis of mineral particles. These indices are Contiguity Index (Gurland, 1958), Intergrowth Index (Amstutz and Giger, 1972) and Coordination Index (Jeulin, 1981). The design of minerallurgical indices is based on the fundamental principles of Stereology and Digital Image Analysis. Their computation has been carried out using the linear intercepts method, implemented by means of MATLAB programming. This stereological method provides a set of measurements to obtain several parameters, both stereological and geometric. Based on these parameters, minerallurgical indices have been computed. For the assessment of the discriminant capacity of the developed indices, 200 cases have been selected according to their internal structure, so that one of the seven intergrowth types initially considered in this work can be easily recognised in any of their constituents. Minerallurgical indices have been computed for each case and used as discriminant variables. After applying discriminant analysis, 95% of the cases were correctly classified. This result shows that the proposed indices are reliable identifiers of intergrowth type. Once the discriminant power of the indices has been assessed, the developed methodology has been applied to characterise a copper concentrate sample from the Kansanshi copper mine (Zambia). This characterisation has been carried out to quantify the distribution of chalcopyrite with respect to intergrowth types. Different examples of the application of this distribution have been given to test the usefulness of the method. In all of them, the proposed indices provide valuable information to characterise the minerallurgical behaviour of mineral particles. Results derived from both Discriminant Analysis and the characterisation of the Kansanshi concentrate show the reliability, usefulness and versatility of the developed methodology. Therefore, its integration as a routine tool in current systems of automated mineralogical analysis should make available for minerallurgists a great deal of complementary information to treat the ore more efficiently.
Resumo:
This paper presents the detection and identification of hydrocarbons through flu oro-sensing by developing a simple and inexpensive detector for inland water, in contrast to current systems, designed to be used for marine waters at large distances and being extremely costly. To validate the proposed system, three test-benches have been mounted, with various UV-Iight sources. Main application of this system would be detect hydrocarbons pollution in rivers, lakes or dams, which in fact, is of growing interest by administrations.
Resumo:
El software es, cada vez más, una parte muy importante de cualquier circuito electrónico moderno, por ejemplo, un circuito realizado con algún tipo de microprocesador debe incorporar un programa de control por pequeño que sea. Al utilizarse programas informáticos en los circuitos electrónicos modernos, es muy aconsejable, por no decir imprescindible, realizar una serie de pruebas de calidad del diseño realizado. Estas pruebas son cada vez más complicadas de realizar debido al gran tamaño del software empleado en los sistemas actuales, por este motivo, es necesario estructurar una serie de pruebas con el fin de realizar un sistema de calidad, y en algunos casos, un sistema que no presente ningún peligro para el ser humano o el medio ambiente. Esta propuesta consta de la explicación de las técnicas de diseño de pruebas que existen actualmente (por lo menos las más básicas ya que es un tema muy extenso) para realizar el control de calidad del software que puede contener un sistema embebido. Además, muchos circuitos electrónicos, debido a su control o exigencia hardware, es imprescindible que sean manipulados por algún programa que requiera más que un simple microprocesador, me refiero a que se deban controlar por medio de un pequeño programa manipulado por un sistema operativo, ya sea Linux, AIX, Unix, Windows, etc., en este caso el control de calidad se debería llevar a cabo con otras técnicas de diseño. También se puede dar el caso que el circuito electrónico a controlar se deba hacer por medio de una página web. El objetivo es realizar un estudio de las actuales técnicas de diseño de pruebas que están orientadas al desarrollo de sistemas embebidos. ABSTRACT. Software is increasingly a very important part of any modern electronic circuit, for example, a circuit made with some type of microprocessor must incorporate a control program no matter the small it is. When computer programs are used in modern electronic circuits, it is quite advisable if not indispensable to perform a series of quality tests of the design. These tests are becoming more and more difficult to be performed due to the large size of the software used in current systems, which is why it is necessary to structure a series of tests in order to perform a quality system, and in some cases, a system with no danger to humans or to the environment. This proposal consists of an explanation of the techniques used in the tests (at least the most basic ones since it is a very large topic) for quality control of software which may contain an embedded system. In addition, a lot of electronic circuits, due to its control or required hardware, it is essential to be manipulated by a program that requires more than a simple microprocessor, I mean that they must be controlled by means of a small program handled by an operating system, being Linux, AIX, Unix, Windows, etc., in this case the quality control should be carried out with other design techniques. The objective is to study the current test design techniques that are geared to the development of embedded systems. It can also occur that the electronic circuit should be controlled by means of a web page.
Resumo:
La creciente complejidad, heterogeneidad y dinamismo inherente a las redes de telecomunicaciones, los sistemas distribuidos y los servicios avanzados de información y comunicación emergentes, así como el incremento de su criticidad e importancia estratégica, requieren la adopción de tecnologías cada vez más sofisticadas para su gestión, su coordinación y su integración por parte de los operadores de red, los proveedores de servicio y las empresas, como usuarios finales de los mismos, con el fin de garantizar niveles adecuados de funcionalidad, rendimiento y fiabilidad. Las estrategias de gestión adoptadas tradicionalmente adolecen de seguir modelos excesivamente estáticos y centralizados, con un elevado componente de supervisión y difícilmente escalables. La acuciante necesidad por flexibilizar esta gestión y hacerla a la vez más escalable y robusta, ha provocado en los últimos años un considerable interés por desarrollar nuevos paradigmas basados en modelos jerárquicos y distribuidos, como evolución natural de los primeros modelos jerárquicos débilmente distribuidos que sucedieron al paradigma centralizado. Se crean así nuevos modelos como son los basados en Gestión por Delegación, en el paradigma de código móvil, en las tecnologías de objetos distribuidos y en los servicios web. Estas alternativas se han mostrado enormemente robustas, flexibles y escalables frente a las estrategias tradicionales de gestión, pero continúan sin resolver aún muchos problemas. Las líneas actuales de investigación parten del hecho de que muchos problemas de robustez, escalabilidad y flexibilidad continúan sin ser resueltos por el paradigma jerárquico-distribuido, y abogan por la migración hacia un paradigma cooperativo fuertemente distribuido. Estas líneas tienen su germen en la Inteligencia Artificial Distribuida (DAI) y, más concretamente, en el paradigma de agentes autónomos y en los Sistemas Multi-agente (MAS). Todas ellas se perfilan en torno a un conjunto de objetivos que pueden resumirse en alcanzar un mayor grado de autonomía en la funcionalidad de la gestión y una mayor capacidad de autoconfiguración que resuelva los problemas de escalabilidad y la necesidad de supervisión presentes en los sistemas actuales, evolucionar hacia técnicas de control fuertemente distribuido y cooperativo guiado por la meta y dotar de una mayor riqueza semántica a los modelos de información. Cada vez más investigadores están empezando a utilizar agentes para la gestión de redes y sistemas distribuidos. Sin embargo, los límites establecidos en sus trabajos entre agentes móviles (que siguen el paradigma de código móvil) y agentes autónomos (que realmente siguen el paradigma cooperativo) resultan difusos. Muchos de estos trabajos se centran en la utilización de agentes móviles, lo cual, al igual que ocurría con las técnicas de código móvil comentadas anteriormente, les permite dotar de un mayor componente dinámico al concepto tradicional de Gestión por Delegación. Con ello se consigue flexibilizar la gestión, distribuir la lógica de gestión cerca de los datos y distribuir el control. Sin embargo se permanece en el paradigma jerárquico distribuido. Si bien continúa sin definirse aún una arquitectura de gestión fiel al paradigma cooperativo fuertemente distribuido, estas líneas de investigación han puesto de manifiesto serios problemas de adecuación en los modelos de información, comunicación y organizativo de las arquitecturas de gestión existentes. En este contexto, la tesis presenta un modelo de arquitectura para gestión holónica de sistemas y servicios distribuidos mediante sociedades de agentes autónomos, cuyos objetivos fundamentales son el incremento del grado de automatización asociado a las tareas de gestión, el aumento de la escalabilidad de las soluciones de gestión, soporte para delegación tanto por dominios como por macro-tareas, y un alto grado de interoperabilidad en entornos abiertos. A partir de estos objetivos se ha desarrollado un modelo de información formal de tipo semántico, basado en lógica descriptiva que permite un mayor grado de automatización en la gestión en base a la utilización de agentes autónomos racionales, capaces de razonar, inferir e integrar de forma dinámica conocimiento y servicios conceptualizados mediante el modelo CIM y formalizados a nivel semántico mediante lógica descriptiva. El modelo de información incluye además un “mapping” a nivel de meta-modelo de CIM al lenguaje de especificación de ontologías OWL, que supone un significativo avance en el área de la representación y el intercambio basado en XML de modelos y meta-información. A nivel de interacción, el modelo aporta un lenguaje de especificación formal de conversaciones entre agentes basado en la teoría de actos ilocucionales y aporta una semántica operacional para dicho lenguaje que facilita la labor de verificación de propiedades formales asociadas al protocolo de interacción. Se ha desarrollado también un modelo de organización holónico y orientado a roles cuyas principales características están alineadas con las demandadas por los servicios distribuidos emergentes e incluyen la ausencia de control central, capacidades de reestructuración dinámica, capacidades de cooperación, y facilidades de adaptación a diferentes culturas organizativas. El modelo incluye un submodelo normativo adecuado al carácter autónomo de los holones de gestión y basado en las lógicas modales deontológica y de acción.---ABSTRACT---The growing complexity, heterogeneity and dynamism inherent in telecommunications networks, distributed systems and the emerging advanced information and communication services, as well as their increased criticality and strategic importance, calls for the adoption of increasingly more sophisticated technologies for their management, coordination and integration by network operators, service providers and end-user companies to assure adequate levels of functionality, performance and reliability. The management strategies adopted traditionally follow models that are too static and centralised, have a high supervision component and are difficult to scale. The pressing need to flexibilise management and, at the same time, make it more scalable and robust recently led to a lot of interest in developing new paradigms based on hierarchical and distributed models, as a natural evolution from the first weakly distributed hierarchical models that succeeded the centralised paradigm. Thus new models based on management by delegation, the mobile code paradigm, distributed objects and web services came into being. These alternatives have turned out to be enormously robust, flexible and scalable as compared with the traditional management strategies. However, many problems still remain to be solved. Current research lines assume that the distributed hierarchical paradigm has as yet failed to solve many of the problems related to robustness, scalability and flexibility and advocate migration towards a strongly distributed cooperative paradigm. These lines of research were spawned by Distributed Artificial Intelligence (DAI) and, specifically, the autonomous agent paradigm and Multi-Agent Systems (MAS). They all revolve around a series of objectives, which can be summarised as achieving greater management functionality autonomy and a greater self-configuration capability, which solves the problems of scalability and the need for supervision that plague current systems, evolving towards strongly distributed and goal-driven cooperative control techniques and semantically enhancing information models. More and more researchers are starting to use agents for network and distributed systems management. However, the boundaries established in their work between mobile agents (that follow the mobile code paradigm) and autonomous agents (that really follow the cooperative paradigm) are fuzzy. Many of these approximations focus on the use of mobile agents, which, as was the case with the above-mentioned mobile code techniques, means that they can inject more dynamism into the traditional concept of management by delegation. Accordingly, they are able to flexibilise management, distribute management logic about data and distribute control. However, they remain within the distributed hierarchical paradigm. While a management architecture faithful to the strongly distributed cooperative paradigm has yet to be defined, these lines of research have revealed that the information, communication and organisation models of existing management architectures are far from adequate. In this context, this dissertation presents an architectural model for the holonic management of distributed systems and services through autonomous agent societies. The main objectives of this model are to raise the level of management task automation, increase the scalability of management solutions, provide support for delegation by both domains and macro-tasks and achieve a high level of interoperability in open environments. Bearing in mind these objectives, a descriptive logic-based formal semantic information model has been developed, which increases management automation by using rational autonomous agents capable of reasoning, inferring and dynamically integrating knowledge and services conceptualised by means of the CIM model and formalised at the semantic level by means of descriptive logic. The information model also includes a mapping, at the CIM metamodel level, to the OWL ontology specification language, which amounts to a significant advance in the field of XML-based model and metainformation representation and exchange. At the interaction level, the model introduces a formal specification language (ACSL) of conversations between agents based on speech act theory and contributes an operational semantics for this language that eases the task of verifying formal properties associated with the interaction protocol. A role-oriented holonic organisational model has also been developed, whose main features meet the requirements demanded by emerging distributed services, including no centralised control, dynamic restructuring capabilities, cooperative skills and facilities for adaptation to different organisational cultures. The model includes a normative submodel adapted to management holon autonomy and based on the deontic and action modal logics.
Resumo:
La integración de fuentes de información heterogéneas ha sido un problema abordado en diferentes tipos de fuentes a lo largo de las décadas de diferentes maneras. Una de ellas es el establecimiento de unas relaciones semánticas que permitan poder unir la información de las fuentes relacionadas. A estos enlaces, claves en la integración, se les ha llamado generalmente mappings. Los mappings se han usado en multitud de trabajos y se han abordado, de manera más práctica que teórica en muchos casos, diferentes soluciones para su descubrimiento, su almacenaje, su explotación, etc. Sin embargo, aunque han sido muchas las contribuciones sobre mappings, no hay una definición generalizada y admitida por la comunidad que cubra todos los aspectos vinculados a los mappings. Además, en su proceso de descubrimiento, no existe un marco teórico que defina metódicamente los procesos a seguir y sus características. Igualmente, la actual forma de evaluar el descubrimiento de mappings no es suficiente para toda la casuística existente. En este trabajo se aporta una definición de mapping génerica que engloba todos los sistemas actuales, la especificación detallada del proceso de descubrimiento y el análisis y la propuesta de un proceso de evaluación del descubrimiento. La validez de estos aportes se comprueba con la formulación de hipótesis y su comprobación mediante un estudio cuantitativo sobre un caso de uso con recursos geoespaciales heterogéneos. ABSTRACT The integration of heterogeneous information resources has been an issue addressed in different types of sources over the decades in different ways. One of them is the establishment of semantic relations which allow information from different related resources to be linked. These links, crucial pieces of this integration, are usually known as mappings. These mappings have been widely used in many applications, and different solutions for their discovery, storing, explotation, etc. have been presented, following rather a more practical than theoretical way in many cases. However, although mappings have been widely applied by many researchers, there is a lack of a generally accepted definition that can cover all the aspects related to mappings. Moreover, in the process of mapping discovery, there is not a theoretical framework that defines methodically the processes to be followed and their characteristics. Similarly, the current way of assessing or evaluating the discovery of mappings is insufficient for all the existing use cases. The main contributions of this work are threefold. On the one hand, it presents a general definition of "mapping" which covers all current systems. On the other hand, it describes a detailed specification of the discovery process, and, finally, it faces the analysis and the purpose of the evaluation of this discovery process. The validity of these contributions has been checked with the formulation of hypothesis which have been verified by using heterogeneous geospatial resources in a quantitative study.
Resumo:
Este proyecto fin de carrera trata de mejorar los sistemas actuales de control en la visualización de diapositivas. La solución adoptada constará de un sistema con modelo cliente-servidor. El servidor formado por un mini ordenador, en este caso una Raspberry Pi, que estará conectado al proyector de video. Este servidor se mantendrá a la espera de recibir una conexión entrante vía Bluetooth. Una vez se realice la conexión interpretará los comandos mandados por el cliente a través de una API con formato JSON y realizará las acciones indicadas para el control de la presentación. El cliente será una aplicación móvil para dispositivos Android. A través de ella el profesor accederá al servidor escaneando un código QR que será proyectado y una vez conectado enviará los comandos de control de la presentación, tales como abrir una presentación, avanzar y retroceder diapositiva, etc. La solución final deberá ser eficiente, sencilla de utilizar y con un bajo coste para resultar atractiva y ser así útil en el mundo real. Para ello se contará con valores añadidos como el poder iniciar la presentación desde el dispositivo móvil, el mostrar las notas de la diapositiva actual o contar con un temporizador para permitir un mejor control sobre el tiempo disponible para la presentación. ABSTRACT. This final project pursues the improvement of the current presentation control systems. The solution it provides is based on a server-client architecture. The server will be a mini PC, a Raspberry Pi model in this case, that will be connected to a video projector or a screen monitor. This server will remain idle waiting for an incoming Bluetooth connection. Once the connection is accepted the server will parse the commands sent by the client through a JSON API and will execute them accordingly to control the system. The client we decided to develop is an Android application. The speaker will be able to connect with the server by scanning a QR code that will be generated and displayed into the projector or screen monitor. Once the connection is accepted the client will sent the commands to control the slides, such as opening a presentation, move forward and backwards, etc. The adopted solution must be efficient, easy to use and with low cost to be appealing and useful to the real world. To accomplish the task this project will count with improvements over the current systems, such as the possibility to open a presentation from the smartphone, the visualization of the current slide notes from the mobile phone and a countdown timer to have a better control over the available time for the presentation.
Resumo:
Este trabajo se ocupa de la construcción modular ligera de viviendas unifamiliares, más concretamente aborda el problema de la definición constructiva de las mismas, habida cuenta de lo poco conocido y publicado de este aspecto en particular. Dado que la construcción es fruto de la evolución, resulta de gran importancia el estudio de los antecedentes para comprender la situación actual, por ello para documentar como corresponde el estado de la técnica y de la investigación se estudiaron los antecedentes desde sus primeras manifestaciones a finales del siglo XIX hasta nuestros días. Contrariamente a las profecías de Le Corbusier y otros, la industrialización no ha llegado a la construcción ni en la forma ni en la medida que era de esperar a principios del siglo XX. Sin embargo y a pesar del relativo “fracaso” de la industrialización en convertirse en la forma mayoritaria de producir edificios, lo cierto es que algunos sistemas altamente industrializados, como lo es la construcción modular ligera, han logrado un lugar en el mercado, que en algunos países resulta cuanto menos significativo. Delimitar el estado de la técnica y la situación actual es crucial en este trabajo, toda vez que la construcción industrializada la realizan empresas, y situarse al margen de las mismas y de su producción, nos guste o no, resulta contrario al sentido común. De este modo se han identificado y documentado ejemplos como el de EE.UU. y Japón, entre otros, que resultan muy ilustrativos tanto desde la evolución como del estado actual. Del estado de la técnica y la investigación también resulta la escasez de publicación de detalles constructivos específicos de la construcción modular ligera. Es obvio que los fabricantes intentan blindarse mediante el secreto industrial, logrando que las soluciones constructivas más interesantes queden fuertemente protegidas dentro del conocimiento reservado de la empresa. De este modo un sistema que alcanza grados de prefabricación del 95%, tan atractivo e interesante para el arquitecto queda reservado al conocimiento de unos pocos dentro de las empresas. La búsqueda de mayor información sobre estos sistemas encuentra un filón indiscutible en los proyectos de las casas del concurso Solar Decathlon. En efecto, debido a las condiciones particulares de este concurso, las casas que compiten deben ser instaladas en un plazo corto, por lo que en su mayoría recurren al método de construcción modular ligera, para lograr correctamente este objetivo. Adicionalmente todos los planos de proyecto incluidos los de detalle, así como memorias de especificaciones técnicas, quedan colgadas en la Web, a libre disposición del público. De este modo se ha considerado interesante, conveniente y útil, aprovechar como fuente documental de este trabajo, aparte de lo obtenido en el estado de la técnica y la investigación, los proyectos de las casas de los concursos 2005 y 2007, que fueron las dos últimas ediciones celebradas cuando se inició esta tesis. De modo similar a esta carencia de detalles publicados se observa igualmente una falta de investigación y de metodologías adecuadas a la misma sobre soluciones y detalles constructivos propios de la construcción modular ligera. Por eso y ante la dificultad de manejar adecuadamente una información disponible pero farragosa, este trabajo ha dedicado una parte importante de su esfuerzo a la creación de una metodología adecuada a este tipo de situación. Hay que destacar que cada proyecto puede constar fácilmente de 60 a casi 200 planos, sin contar las memorias técnicas y otros documentos, tales como galerías de imágenes, etc. Por otra parte resulta útil establecer esta metodología, no solo para esta tesis, sino para futuros trabajos de investigación sobre el tema, toda vez que con posterioridad a 2007 se han celebrado nuevas ediciones del concurso con su correspondiente volumen de información disponible. La metodología del análisis de los proyectos se basa en el diseño y creación de siete fichas tipo que resumen los aspectos fundamentales del proyecto desde el punto de vista constructivo, permitiendo de este modo su rápida visualización y comprensión sin pretender exhaustividad, ya que en caso de querer profundizar en el detalle de la información siempre está el proyecto original para ello. Tras estudiar la información obtenida de los proyectos de las casas de concurso, se contrastan y discuten los resultados para obtener conocimientos de interés para el objetivo propuesto en la tesis. Se comparan los resultados procedentes del estado de la técnica y de la investigación y se obtienen las conclusiones correspondientes. De este modo ha sido posible identificar una serie de criterios técnicos de proyecto de viviendas unifamiliares realizadas mediante construcción modular ligera, que además se organizan en varios niveles, por lo que el resultado es un conjunto de criterios como germen de una futura guía o manual. Como conclusiones fundamentales de la tesis hay que destacar las metodológicas, que habilitan la extensión de este estudio a otros trabajos y la aportación original al conocimiento con la definición de una serie de criterios técnicos de proyecto de viviendas realizadas mediante construcción modular ligera, que además de mejorar esta parte del saber constructivo serán de gran ayuda a los arquitectos de cara a la reducción de errores, que a menudo derivan en mayores costes y plazos, cuando no directamente al abandono del sistema constructivo. El trabajo de la tesis se estructura en siete capítulos a saber: Capítulo 1: Introducción, donde se explica el tema de la tesis, el objetivo principal, las limitaciones y se aportan algunas definiciones. Capítulo 2: Estado de la técnica y la investigación, dentro del cual se presentan los antecedentes desde sus inicios pasando por la primera y segunda mitad del siglo XX y finalizando con el estado actual que recorre los sistemas de EE.UU, Japón, Europa, Escandinavia, centro Europa, Francia, España y algunos ejemplos de Latinoamérica. En el estado de la investigación se presentan las publicaciones tanto en revistas científicas indexadas en el JCR, como publicaciones no indexadas en las que se muestran artículos científicos, comunicaciones a congresos, documentación sobre el concurso Solar Decathlon, libros específicos y libros genéricos sobre construcción modular ligera, tesis doctorales tanto generales como específicas sobre el concurso Solar Decathlon, documentos de idoneidad técnica, páginas Web del concurso Solar Decathlon y finalmente páginas Web de empresas de construcción modular ligera y patentes. También se expresan las conclusiones parciales del capítulo así también como la justificación y los objetivos particulares. Capítulo 3: Metodología, se expone en primer lugar el planteamiento del problema, para luego desarrollar los métodos utilizados para el estudio y clasificación del transporte y de la organización modular, la relación entre la organización modular y distribución espacial, el diseño y contenido de las fichas resumen de los 38 proyectos presentados al SD2005 y SD2007, así también como la información consultada para su realización. Se explica asimismo como se realizaron las tablas comparativas partiendo de la información de las fichas. Finalmente se expresa la manera en que se trató el estudio particular de la junta entre módulos. Capítulo 4: Discusión de resultados, dónde en primer lugar se presenta la clasificación y las estrategias del transporte así también como una clasificación de la organización modular, en segundo lugar se estudian las relaciones que existen entre el sistema modular y la organización espacial. A partir de aquí se muestra el estudio de la estructura de todas las casas del SD2005 y SD2007, según el tipo y material de las zapatas, mostrando tanto tablas cuantitativas como tablas gráficas con fotos. De la misma manera se tratan los forjados, los pilares y las vigas y las cubiertas. Se estudia además el cerramiento opaco y acristalado, la cubierta y el forjado según las capas que lo componen. En el caso de las instalaciones se estudian las que son especiales, descartando las normales en este tipo de casas, como son los paneles fotovoltaicos, placas térmicas o tubos de vacío y los sistemas de almacenamiento de energía, como las baterías, presentando tablas numéricas y gráficas con fotos. El transporte se analiza según corresponda al traslado de la vivienda o al transporte de apoyo, según el tipo y la cantidad utilizado. Con respecto al montaje se diferencia en si se usó grúa o no, y en el caso de no utilizarse se muestran los métodos alternativos. Con respecto a la exploración de la organización modular se presentan la cantidad de módulos que utilizó cada casa, así como también la cuantificación de los sistemas híbridos como son elementos lineales 1D, paneles 2D. Por último se muestra el estudio detallado de la junta entre módulos 3D. Finalmente se realiza la propuesta de un conjunto de criterios técnicos de proyecto organizado en cuatro niveles: 1º nivel de criterios generales, 2º nivel sobre sistemas constructivos, 3º nivel de detalles constructivos y el 4º nivel llamado logística obras previas, transporte y montaje. Capítulo 5: Conclusiones y líneas futuras de investigación, se exponen las conclusiones generales, metodológicas, documentales y por último las de construcción modular. Finalmente se realiza una propuesta de líneas futuras de investigación. Capítulo 6: Bibliografía. Capítulo 7: Anexos, en el que se presentan todas las fichas resumen de las casas realizadas por el autor de esta tesis. Además se incluyen los casos concretos de Voisin en Francia y la TVA (Tennessee Valley Authority) en EE.UU., así como referencias de manuales genéricos de construcción ligera, medidas de transporte en España e información sobre estadísticas de viviendas en la Unión Europea. ABSTRACT This paper deals with Light Modular Construction of houses, and specifically addresses the problem of the constructive definition of the same, given how little known and published this subject has been. Since building construction is the result of evolution, it is of great importance to study its background for understanding the current situation, therefore to document the state of the art and research, its history was studied from its origins dating to the end nineteenth century to our days. Contrary to the prophecies of Le Corbusier and others, industrialization has not reached the construction neither in the form nor to the extent that it was expected in the early twentieth century. However, despite the relative "failure" of industrialization to become the major form of production for buildings, the fact is that some highly industrialized systems, such as the so called Lightweight Modular Construction, have achieved a place in the market, which in some countries is at least significant. To outline the state of the art and the current situation is crucial in this work, since industrialized construction is carried out by companies, and to step away from them and their production, whether we like it or not, it is contrary to common sense. So that, several cases have been identified and documented, such as the US and Japan examples, among others, which are very illustrative both from evolution and the current status. The state of the art and research shows also a shortage of publication of specific construction details of light modular construction. Obviously, manufacturers try to shield themselves by trade secret, making the most interesting constructive solutions remain heavily protected within the reserved knowledge of the company, so a system that reaches levels of 95% prefabrication, so attractive and interesting for the architect It is reserved to the knowledge of a few people inside the companies. The search for more information on these systems finds an invaluable reef in the projects of the Solar Decathlon houses. Indeed, due to the particular conditions of this contest, houses competing must be installed in a short time, so mostly turn to modular construction methods for this purpose to achieve properly this goal. Additionally all levels of project, including detailed and technical specifications reports are published on the Web, freely available to the general public. Thus it was considered interesting, convenient and useful to take advantage as a documentary source of this work, apart from what it were obtained in the state of the art and research, the projects of the houses of the 2005 and 2007 contests, which were the last two editions already held before this thesis was started. Similar to this lack of published details it is also observed a lack of research and methodologies adapted to the solutions and construction details of lightweight modular construction. So that, and facing the difficulty of adequately manage the available but bulky information, this work has devoted a significant part of its effort to create an appropriate methodology for this type of situation. It is noteworthy that each project can easily consist of 60 to almost 200 blueprints, not including technical reports and other documents, such as photo galleries, etc. The methodology of the analysis of the projects is based on the design and creation of seven record sheets that summarize key aspects of the project from a construction point of view, thus allowing quick watching and understanding of the project, without claiming completeness, always keeping for further information the blueprints themselves. After studying the information obtained from the projects of the competition houses, the results are compared and discussed to obtain relevant knowledge according to the objective proposed in the thesis. The results from the state of the art and research are also compared and the conclusions so obtained make possible to identify a number of technical design criteria for single family homes made using lightweight modular construction, which also have been organized at various levels, so the result is a set of criteria as a seed for a future guide or manual. Among the main conclusions of the thesis must be noted the methodological ones, that enable the extension of this study to other works and are an original contribution to knowledge with the definition of a number of technical criteria for housing projects made by light modular construction, what in addition to improving this part of the constructive knowledge will be of great help for the architects to reduce errors that often result in higher costs and delays, if not in abandonment of the construction system itself. The work of the thesis is divided into seven chapters as follows: Chapter 1: Introduction, where the topic of the thesis, the main objective, limitations and the provided definitions is explained. Chapter 2: State of the art and research, within which history is presented from the beginning through the first and second half of the twentieth century and ending with the current systems, that spans from the USA to Japan, Europe, Scandinavia, Central Europe, France, Spain and some Latin American examples. In the state of research publications are presented both on scientific journals indexed in the JCR, and non-indexed publications in which scientific articles, conference papers, information about the Solar Decathlon competition, generic and specific books on light modular construction, articles both general and specific on the Solar Decathlon competition, technical approval documents, dissertations, the Solar Decathlon Web pages and finally lightweight modular construction companies Web pages and patents. The partial conclusions of the chapter as well as the rationale and specific objectives are also expressed. Chapter 3: Methodology first of all exposes the problem statement and then develops the methods used for the study and classification of transportation and modular organization, the relationship between the modular organization and spatial distribution, design and content summary records of the 38 projects submitted to the SD2005 and SD2007, as well as information consulted for its realization. It explains equally how the comparative tables based on information from the chips were made. Finally, the way the particular study of the joint between modules is carried out is also treated. Chapter 4: Discussion, first sorting a classification of transport strategies as well as of modular organization, secondly the relationship between the modular system and the spatial organization studied is presented. From then on, the study of the structure of every house Moreover, to establish this methodology is useful not only for this thesis, but for future research on the subject, since after 2007 there have been held new editions of the contest with a corresponding volume of information available. shown in the SD2005 and SD2007 contests, depending on the type and material of the shoe, showing both quantitative tables as graphic boards with pictures is carried out. Similarly slabs, columns and beams and roofs are treated. Furthermore, the opaque and transparent façades, as well as roof and floor enclosure, according to the layers that compose them are studied. In the case of facilities there have been only addressed that which are of a special type, discarding that considered usual in this type of houses such as photovoltaic panels, thermal panels or vacuum tubes and energy storage systems such as batteries, presenting numerical and graphical tables with photos .The transportation is analyzed depending on it is used to move the house or for additional support, depending on the type and quantity of items used. Regarding assembly it has been made a difference if crane is or not used and if not, what the alternative methods are. With respect to the exploration of the modular organization, the amount of modules used in each house is presented, as well as the quantification of hybrid systems such as linear members as well as 1D, 2D panels. Finally, it has been carried out the detailed study of the joint between 3D modules. Finally it is proposed a set of technical criteria organized into four levels, 1st level of general criteria, 2nd level on building systems, 3rd level construction details and 4th level called previous works and logistics, transportation and assembly. Chapter 5: Conclusions and future research, where general, methodological, documentary and finally modular construction findings are presented. A proposal for further research is done. Chapter 6: Bibliography. Chapter 7: Annexes, in which all the record sheets of houses made by the author of this thesis are presented. Besides the specific cases of Voisin in France and TVA (Tennessee Valley Authority) in the USA, as well as general reference manuals on lightweight construction, transportation dimensions in Spain, and information on housing statistics in the European Union are included.