32 resultados para Sistemas complejos
Resumo:
Los retos y oportunidades a los que se enfrentan las organizaciones y administraciones de las primeras décadas del siglo XXI se caracterizan por una serie de fuerzas perturbadoras como la globalización, el avance de las tecnologías emergentes y el desequilibrio económico, que están actuando como impulsores de la transformación del mercado. La acción conjunta de estos factores está obligando a todas las empresas industriales a tener que trabajar con mayores y más exigentes niveles de productividad planteándose continuamente como mejorar y lograr satisfacer los requerimientos de los clientes. De esta situación surge la necesidad de volver a plantearse de nuevo ¿quién es el cliente?, ¿qué valora el cliente? y ¿cómo se pueden generan beneficios sostenibles? La aplicación de esta reflexión a la industria naval militar marca los objetivos a los que esta tesis doctoral busca dar respuesta. El primer objetivo, de carácter general, consiste en la definición de un modelo de negocio sostenible para la industria naval militar del 2025 que se adapte a los requisitos del cliente y al nuevo escenario político, económico, social, tecnológico y ambiental que rodea esta industria. El segundo objetivo, consecuencia del modelo general, trata de desarrollar una metodología para ejecutar programas de apoyo al ciclo de vida del “buque militar”. La investigación se estructura en cuatro partes: en la primera se justifica, por un lado, la necesidad del cambio de modelo y por otro se identifican los factores estructurantes para la definición del modelo. La segunda parte revisa la literatura existente sobre uno de los aspectos básicos para el nuevo modelo, el concepto Producto-Servicio. La tercera parte se centra totalmente en la industria naval militar estudiando los aspectos concretos del sector y, en base al trabajo de campo realizado, se identifican los puntos que más valoran las Marinas de Guerra y como estas gestionan al buque militar durante todo su ciclo de vida. Por último se presentan los principios del modelo propuesto y se desarrollan los pilares básicos para la ejecución de proyectos de Apoyo al Ciclo de Vida (ACV). Como resultado de la investigación, el modelo propuesto para la industria naval militar se fundamenta en once principios: 1. El buque militar (producto de alto valor añadido) debe ser diseñado y construido en un astillero del país que desarrolla el programa de defensa. 2. El diseño tiene que estar orientado al valor para el cliente, es decir, se tiene que diseñar el buque militar para que cumpla su misión, eficaz y eficientemente, durante toda su vida operativa, asegurando la seguridad del buque y de las personas y protegiendo el medio ambiente de acuerdo con las regulaciones vigentes. 3. La empresa debe suministrar soluciones integrales de apoyo al ciclo de vida al producto. 4. Desarrollar y mantener las capacidades de integración de sistemas complejos para todo el ciclo de vida del buque militar. 5. Incorporar las tecnologías digitales al producto, a los procesos, a las personas y al propio modelo de negocio. 6. Desarrollar planes de actuación con el cliente domestico a largo plazo. Estos planes tienen que estar basados en tres premisas: (i) deben incluir el ciclo de vida completo, desde la fase de investigación y desarrollo hasta la retirada del buque del servicio; (ii) la demanda debe ser sofisticada, es decir las exigencias del cliente, tanto desde la óptica de producto como de eficiencia, “tiran” del contratista y (iii) permitir el mantenimiento del nivel tecnológico y de las capacidades industriales de la compañía a futuro y posicionarla para que pueda competir en el mercado de exportación. 7. Impulsar el sector militar de exportación mediante una mayor actividad comercial a nivel internacional. 8. Fomentar la multilocalización ya que representa una oportunidad de crecimiento y favorece la exportación posibilitando el suministro de soluciones integrales en el país destino. 9. Reforzar la diplomacia institucional como palanca para la exportación. 10. Potenciar el liderazgo tecnológico tanto en producto como en procesos con políticas activas de I + D+ i. 11. Reforzar la capacidad de financiación con soluciones innovadoras. El segundo objetivo de esta tesis se centra en el desarrollo de soluciones integrales de Apoyo al Ciclo de Vida (ACV). La metodología planteada trata de minimizar la brecha entre capacidades y necesidades a lo largo de la vida operativa del barco. Es decir, el objetivo principal de los programas de ACV es que la unidad conserve durante toda su vida operativa, en términos relativos a las tecnologías existentes, las capacidades equivalentes a las que tendrá cuando entre en servicio. Los ejes de actuación para conseguir que un programa de Apoyo al Ciclo de Vida cumpla su objetivo son: el diseño orientado al valor, la ingeniería de Apoyo al Ciclo de Vida, los proyectos de refresco de tecnología, el mantenimiento Inteligente y los contratos basados en prestaciones. ABSTRACT On the first decades of the 21st century, organizations and administrations face challenges and come across opportunities threatened by a number of disruptive forces such as globalization, the ever-changing emerging technologies and the economic imbalances acting as drivers of the market transformation. This combination of factors is forcing all industrial companies to have more and higher demanding productivity levels, while bearing always in mind how to improve and meet the customer’s requirements. In this situation, we need to question ourselves again: Who is the customer? What does the customer value? And how can we deliver sustainable economic benefits? Considering this matter in a military naval industry framework sets the goals that this thesis intends to achieve. The first general goal is the definition of a new sustainable business model for the 2025 naval industry, adapted to the customer requirements and the new political, economic, social, technological and environmental scenario. And the second goal that arises as a consequence of the general model develops a methodology to implement “warship” through life support programs. The research is divided in four parts: the first one justifies, on the one hand, the need to change the existing model and, on the other, identifies the model structural factors. On the second part, current literature regarding one of the key issues on the new model (the Product-Service concept) is reviewed. Based on field research, the third part focuses entirely on military shipbuilding, analyzing specific key aspects of this field and identifying which of them are valued the most by Navies and how they manage through life cycles of warships. Finally, the foundation of the proposed model is presented and also the basic grounds for implementing a Through Life Support (TLS) program are developed. As a result of this research, the proposed model for the naval industry is based on eleven (11) key principles: 1. The warship (a high added value product) must be designed and built in a shipyard at the country developing the defense program. 2. Design must be customer value oriented, i.e.warship must be designed to effectively fulfill its mission throughout its operational life, ensuring safety at the ship and for the people and protecting the environment in accordance with current regulations. 3. The industry has to provide integrated Through Life Support solutions. 4. Develop and maintain integrated complex systems capabilities for the entire warship life cycle. 5. Introduce the product, processes, people and business model itself to digital technologies. 6. Develop long-term action plans with the domestic customer. These plans must be based on three premises: (i) the complete life cycle must be included, starting from the research and development stage throughout the ship’s disposal; (ii) customer demand has to be sophisticated, i.e. customer requirements, both from the efficiency and product perspective, "attract" the contractor and (iii) technological level and manufacturing capabilities of the company in the future must be maintained and a competitive position on the export market has to be achieved. 7. Promote the military exporting sector through increased international business. 8. Develop contractor multi-location as it entails an opportunity for growth and promote export opportunities providing integrated solutions in the customer's country. 9. Strengthen institutional diplomacy as a lever for export. 10. Promote technological leadership in both product and processes with active R & D & I policies (Research & Development & Innovation) 11. Strengthen financing capacity through innovative solutions. The second goal of this thesis is focused on developing integrated Through Life Support (TLS) solutions. The proposed methodology tries to minimize the gap between needs and capabilities through the ship operational life. It means, the main TLS program objective is to maintain the ship’s performance and capabilities during operational life, in relative terms to current technologies, equivalent to those the ship had when it entered service. The main actions to fulfill the TLS program objectives are: value-oriented design, TLS engineering, technology updating projects, intelligent maintenance and performance based contracts.
Resumo:
La tesis aborda el estudio de la casa patio y su relación con todas las escalas del proyecto, dentro del ámbito de la vivienda colectiva desarrollada en Madrid desde el comienzo de la década de los cincuenta hasta principio de los sesenta. Se investiga su vínculo con la ciudad a partir de la configuración de la trama y los espacios públicos, la organización de la casa en torno a un vacío y las relaciones espaciales entre el patio exterior y las estancias interiores. Mediante el análisis de los diferentes ejemplos existentes de casas con patio en el contexto señalado, se realiza la selección de los casos de estudio de esta investigación. Los proyectos analizados se organizan a partir del trabajo desarrollado por los arquitectos Francisco Javier Sáenz de Oíza y Antonio Vázquez de Castro, liderando equipos más amplios y como representantes de la construcción definitiva de un verdadero lenguaje moderno en la arquitectura española. Cada uno de los proyectos, estructurados en dos apartados para cada uno de los autores, muestran de forma particular, la evolución de las herramientas arquitectónicas empleadas, a partir de la casa patio, en las distintas escalas de trabajo. En los proyectos de Oíza, se analiza en primer lugar la definición de un modelo mínimo y racional de vivienda con patio en el poblado de absorción de Fuencarral “A” (1956) y con el prototipo del concurso de vivienda experimental (1956). A continuación se estudia, en el Poblado Dirigido de Entrevías (1956), la construcción de la ciudad horizontal a partir del patio como elemento estructurante de las tramas urbanas. Las obras de Vázquez de Castro muestran inicialmente la incorporación del patio como una estancia privada más de la casa con la definición de un modelo tipológico en “L” en el Poblado Dirigido de Caño Roto (1956). Finalmente, se analiza el desarrollo de nuevas y complejas estructuras urbanas en forma de tapiz en el proyecto de la Unidad Vecinal de Costa Rica (1961). Los ejemplos, antes descritos, protagonizan un proceso delimitado desde la importación y adaptación de los modelos de vivienda europeos producidos en el periodo de entreguerras, con un significativo retraso; hasta la apuesta por sistemas complejos como el “mat-building”, en diálogo directo, con los proyectos de las nuevas corrientes arquitectónicas internacionales de principios de los sesenta. El estudio y análisis de los ejemplos se realiza mediante la disección pormenorizada de cada uno de ellos, en los sistemas arquitectónicos que establecen la relación del patio con las tres escalas objeto de estudio: la ciudad, la casa y la estancia. Para ello se realiza una reconstrucción de los proyectos mediante la elaboración de una nueva documentación gráfica a partir de los planos y fotografías originales. Finalmente, a partir de los temas arquitectónicos más significativos extraídos del análisis de los casos de estudio y organizados en función de las distintas escalas de proyecto, se realiza una comparación transversal, a modo de conclusiones, respecto a otros ejemplos de similares características del panorama internacional de casas con patio. De esta forma se produce una síntesis sobre los distintos mecanismos que sirvieron para construir, a partir de la tradición del patio en la casa, la vivienda moderna. ABSTRACT The thesis deals the study of the house with courtyard and its relation with all the scales of the project inside the ambience of the collective housing developed in Madrid from the beginning of the fifties up to beginning of the sixties. This document investigates its link with the city from the configuration of the weave and the public spaces, the organization of the house around a void and the spatial relations between the exterior courtyard and the interior spaces. The selection of the case studies of this research is made Through the analysis of the different existing examples of courtyard houses in this defined context. The analyzed projects are organized from the work developed by the architects Francisco Javier Sáenz de Oíza and Antonio Vázquez de Castro, leading wider teams and as representatives of the definitive construction of a real modern language in the Spanish architecture. Each of the projects, structured in two sections to each one of the authors, show in a particular way, the evolution of the architectural tools employed, from the house with courtyard, at different scales of work. In the projects of Oiza, it´s analyced the definition of a minimum and rational model of a house with courtyard in the absorption village of Fuencarral “A” (1956) and with the experimental housing contest prototype (1956). Next, in “el Poblado Dirigido de Entrevías” (1956), the construction of the horinzontal city with the courtyard as a structuring element of the urban weave will be studied. The works of Vázquez de Castro initially show the incorporation of the courtyard as another private area of the house with the typological model definition as an “L” in El Poblado Dirigido de Caño Roto (1956). Finally, the thesis analyzes the development of new and complex urban structures with a mat-building shape in the project of Unidad Vecinal de Costa Rica (1961). The examples described above, starring a process delimited from the import and the adaptation of european housing models produced in the interwar period, with a significant delay; until the opt for complex systems such as the “mat-building”, in direct dialog, with the projects of the new architectural international flows of the beginning of the sixties. The study and analysis of the examples is made by the dissection of them, in the architectural systems that establish the relation of the courtyard with the three scales of the study: the city, the house and the stay. To reach this objetive this document reconstructs the projects making a new graphic documentation from the original maps and photos. Finally, from the most important architectural issues drawn from the analysis of the case studies and organised by the different scales of project, as conclussions, a cross comparison of similar examples of houses with courtyard around the world is made. This produces a synthesis about the different mechanisms that served to build, from the tradition of the courtyard in the house, the modern housing.
Resumo:
This document is a summary of the Bachelor thesis titled “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” written by Pablo de Miguel Morales, Electronics Engineering student at the Universidad Politécnica de Madrid (UPM Madrid, Spain) during an Erasmus+ Exchange Program at the Beuth Hochschule für Technik (BHT Berlin, Germany). The tutor of this project is Dr. Prof. Hild. This project has been developed inside the Neurobotics Research Laboratory (NRL) in close collaboration with Benjamin Panreck, a member of the NRL, and another exchange student from the UPM Pablo Gabriel Lezcano. For a deeper comprehension of the content of the thesis, a deeper look in the document is needed as well as the viewing of the videos and the VHDL design. In the growing field of automation, a large amount of workforce is dedicated to improve, adapt and design motor controllers for a wide variety of applications. In the specific field of robotics or other machinery designed to interact with humans or their environment, new needs and technological solutions are often being discovered due to the existing, relatively unexplored new scenario it is. The project consisted of three main parts: Two VHDL-based systems and one short experiment on the haptic perception. Both VHDL systems are based on a Cognitive Sensorimotor Loop (CSL) which is a control loop designed by the NRL and mainly developed by Dr. Prof. Hild. The CSL is a control loop whose main characteristic is the fact that it does not use any external sensor to measure the speed or position of the motor but the motor itself. The motor always generates a voltage that is proportional to its angular speed so it does not need calibration. This method is energy efficient and simplifies control loops in complex systems. The first system, named CSL Stay In Touch (SIT), consists in a one DC motor system controller by a FPGA Board (Zynq ZYBO 7000) whose aim is to keep contact with any external object that touches its Sensing Platform in both directions. Apart from the main behavior, three features (Search Mode, Inertia Mode and Return Mode) have been designed to enhance the haptic interaction experience. Additionally, a VGA-Screen is also controlled by the FPGA Board for the monitoring of the whole system. This system has been completely developed, tested and improved; analyzing its timing and consumption properties. The second system, named CSL Fingerlike Mechanism (FM), consists in a fingerlike mechanical system controlled by two DC motors (Each controlling one part of the finger). The behavior is similar to the first system but in a more complex structure. This system was optional and not part of the original objectives of the thesis and it could not be properly finished and tested due to the lack of time. The haptic perception experiment was an experiment conducted to have an insight into the complexity of human haptic perception in order to implement this knowledge into technological applications. The experiment consisted in testing the capability of the subjects to recognize different objects and shapes while being blindfolded and with their ears covered. Two groups were done, one had full haptic perception while the other had to explore the environment with a plastic piece attached to their finger to create a haptic handicap. The conclusion of the thesis was that a haptic system based only on a CSL-based system is not enough to retrieve valuable information from the environment and that other sensors are needed (temperature, pressure, etc.) but that a CSL-based system is very useful to control the force applied by the system to interact with haptic sensible surfaces such as skin or tactile screens. RESUMEN. Este documento es un resumen del proyecto fin de grado titulado “VHDL-Based System Design of a Cognitive Sensorimotor Loop (CSL) for Haptic Human-Machine Interaction (HMI)” escrito por Pablo de Miguel, estudiante de Ingeniería Electrónica de Comunicaciones en la Universidad Politécnica de Madrid (UPM Madrid, España) durante un programa de intercambio Erasmus+ en la Beuth Hochschule für Technik (BHT Berlin, Alemania). El tutor de este proyecto ha sido Dr. Prof. Hild. Este proyecto se ha desarrollado dentro del Neurorobotics Research Laboratory (NRL) en estrecha colaboración con Benjamin Panreck (un miembro del NRL) y con Pablo Lezcano (Otro estudiante de intercambio de la UPM). Para una comprensión completa del trabajo es necesaria una lectura detenida de todo el documento y el visionado de los videos y análisis del diseño VHDL incluidos en el CD adjunto. En el creciente sector de la automatización, una gran cantidad de esfuerzo está dedicada a mejorar, adaptar y diseñar controladores de motor para un gran rango de aplicaciones. En el campo específico de la robótica u otra maquinaria diseñada para interactuar con los humanos o con su entorno, nuevas necesidades y soluciones tecnológicas se siguen desarrollado debido al relativamente inexplorado y nuevo escenario que supone. El proyecto consta de tres partes principales: Dos sistemas basados en VHDL y un pequeño experimento sobre la percepción háptica. Ambos sistemas VHDL están basados en el Cognitive Sesnorimotor Loop (CSL) que es un lazo de control creado por el NRL y cuyo desarrollador principal ha sido Dr. Prof. Hild. El CSL es un lazo de control cuya principal característica es la ausencia de sensores externos para medir la velocidad o la posición del motor, usando el propio motor como sensor. El motor siempre genera un voltaje proporcional a su velocidad angular de modo que no es necesaria calibración. Este método es eficiente en términos energéticos y simplifica los lazos de control en sistemas complejos. El primer sistema, llamado CSL Stay In Touch (SIT), consiste en un sistema formado por un motor DC controlado por una FPGA Board (Zynq ZYBO 7000) cuyo objetivo es mantener contacto con cualquier objeto externo que toque su plataforma sensible en ambas direcciones. Aparte del funcionamiento básico, tres modos (Search Mode, Inertia Mode y Return Mode) han sido diseñados para mejorar la interacción. Adicionalmente, se ha diseñado el control a través de la FPGA Board de una pantalla VGA para la monitorización de todo el sistema. El sistema ha sido totalmente desarrollado, testeado y mejorado; analizando su propiedades de timing y consumo energético. El segundo sistema, llamado CSL Fingerlike Mechanism (FM), consiste en un mecanismo similar a un dedo controlado por dos motores DC (Cada uno controlando una falange). Su comportamiento es similar al del primer sistema pero con una estructura más compleja. Este sistema no formaba parte de los objetivos iniciales del proyecto y por lo tanto era opcional. No pudo ser plenamente desarrollado debido a la falta de tiempo. El experimento de percepción háptica fue diseñado para profundizar en la percepción háptica humana con el objetivo de aplicar este conocimiento en aplicaciones tecnológicas. El experimento consistía en testear la capacidad de los sujetos para reconocer diferentes objetos, formas y texturas en condiciones de privación del sentido del oído y la vista. Se crearon dos grupos, en uno los sujetos tenían plena percepción háptica mientras que en el otro debían interactuar con los objetos a través de una pieza de plástico para generar un hándicap háptico. La conclusión del proyecto fue que un sistema háptico basado solo en sistemas CSL no es suficiente para recopilar información valiosa del entorno y que debe hacer uso de otros sensores (temperatura, presión, etc.). En cambio, un sistema basado en CSL es idóneo para el control de la fuerza aplicada por el sistema durante la interacción con superficies hápticas sensibles tales como la piel o pantallas táctiles.
Resumo:
La tesis aborda el estudio de la Central lechera CLESA, uno de los edificios industriales de Alejandro de la Sota más significativos de la década de los años cincuenta en España. Las centrales lecheras fueron abordadas por Sota en distintas ocasiones entre 1955 y 1969, siendo CLESA la única de todas ellas que llega a construirse. Se trata de uno de los exponentes más brillantes de la arquitectura moderna industrial española de la posguerra, incluido en "La arquitectura de la industria, REGISTRO DOCOMOMO IBÉRICO”1 entre la veintena de edificios seleccionados de la arquitectura madrileña de este periodo. Plantea una solución singular para alcanzar la diafanidad exigida en la implantación del proceso de producción. La estructura de las naves se realiza con hormigón pretensado, siendo uno de los pioneros en la utilización de esta técnica. La hipótesis de partida considera la realidad del proyecto construido como respuesta desde la arquitectura a un programa industrial resuelto con sencillez, que partiendo de una economía de recursos que le es inherente, consigue desde la coherencia del planteamiento, soluciones donde la complejidad espacial constituye una respuesta eficaz y del máximo interés. Los objetivos de esta tesis son contribuir a un conocimiento riguroso del edificio, que permita descubrir la particularidad de su entramado espacial y el interés de las soluciones adoptadas en su configuración final, en aras de contrastar su calidad arquitectónica. El edificio de la Central Lechera CLESA, si bien es un edificio muy conocido, lo es de una manera superficial. Aparece en numerosas publicaciones, en muchas ocasiones formando parte de un relato extenso de la obra de su autor. El libro monográfico publicado en 2007 por la Fundación Alejandro de la Sota, cuya edición está a cargo de Teresa Couceiro, es la única publicación específica sobre él. Tras una breve introducción, en la que se destaca la intensa dedicación de Sota a esta obra, reúne una colección de planos, fotografías y croquis, junto a la memoria del proyecto. Ofrece una visión fragmentada, que permite vislumbrar el interés de esta obra, pero no facilita comprenderla en su integridad. Es importante destacar la publicación de CLESA en el libro editado por Pronaos (1989), que incluye una selección, realizada por el autor, de plantas, alzados y secciones que corresponden al proyecto construido junto a fotografías de la obra terminada, además de un breve texto tan conciso como esclarecedor. Sobre Alejandro de la Sota se han escrito, tesis doctorales, numerosos artículos, varios libros así como realizado exposiciones que recogen su obra global, reflejados en este documento en las consiguientes bibliografías específicas. Cabe destacar la exposición realizada en la sede del COAM en 2014, con ocasión de su centenario, que el edificio CLESA protagoniza en cierto modo, por su riesgo de desaparición.2 La tesis se estructura en cuatro capítulos: descripción, análisis, síntesis y conclusiones. El primer capítulo contempla la descripción del edificio objeto de la tesis, con una introducción que nos sitúa en el contexto histórico, económico, cultural y social en el que se desarrolla el encargo, proyecto y obra de la central lechera. La descripción propiamente dicha del conjunto industrial, partiendo del encargo de la central lechera al autor del proyecto, pasando por el anteproyecto, el proyecto visado y llegando a la obra realizada. Se compara el proyecto visado, la obra terminada y la CLESA publicada, así como el devenir del edificio. La segunda parte corresponde al análisis, en primer lugar desde el programa como planteamiento general, estudiando las circulaciones, relaciones espaciales, geométricas, esqueléticas, geográficas -parte a parte- que integran el conjunto de la central. La estructura, introducción explicativa de las soluciones adoptadas por Alejandro de la Sota; análisis del sistema esquelético del edificio por partes, operaciones geométricas y espaciales. Construcción, análisis de la materialización de la obra, sistemas constructivos empleados en cerramientos, cubiertas, lucernarios; de lo general a lo particular, estudiando los sistemas. Finalmente a través de la pequeña escala se compendian elementos singulares que forman parte de sistemas complejos, como las múltiples escaleras, barandillas, carpinterías, miradores. Se recapitula en una síntesis que configura un todo con la suma de las partes, mediante la utilización de recursos de enlace de esa arquitectura aditiva, como es el módulo, los recorridos y los enlaces visuales. El capítulo final de Conclusiones contrasta la hipótesis de partida de la tesis en cuanto a una arquitectura de espacios máximos con recursos mínimos. Recoge también diversas reflexiones como la dialéctica entre el espacio fragmentado y el espacio único; crecimiento expansivo o inclusivo; imagen singular y representación; escala doméstica y escala industrial; renuncias estructurales o limitaciones de medios. Quizás, el mayor interés de esta tesis reside los dibujos realizados en axonométrica del complejo CLESA, que han permitido restituir y reconstruir idealmente la fábrica al inicio de su actividad. Teniendo en cuenta su posible desaparición total o parcial, esta restitución cobra relevancia como testimonio de lo que fue. ABSTRACT The thesis deals with the study of CLESA's Dairy Plant, one of the most significant industrial buildings of the Decade of the fifties in Spain, by Alejandro de la Sota. The Dairies were addressed by Sota at various occasions between 1955 and 1969, being the CLESA plant the only one that is has been built. This is one of the most brilliant exponents of Spanish industrial post-war modern architecture, included in "The architecture industry, IBERIAN DOCOMOMO RECORD"3 between the score of selected buildings of Madrid architecture of this period. It poses a singular solution to achieve the openness of the space required in the implementation of the manufacturing process. The structure of the nave is done with prestressed concrete, being one of the pioneers in the use of this technique. The initial hypothesis considers the reality of the project built from the architecture in response to an industrial program solved with simplicity, that from a resource economy that is inherent, gets from the consistency of the approach, solutions where the space complexity is an effective response of great interest. The objectives of this thesis are to contribute to a rigorous knowledge of the building, which allows to discover the particularity of its space lattice and the interest of the solutions adopted in its final configuration, in order to contrast its architectural quality. The building of the Central Lechera CLESA, despite it is a well known building, is in a superficial way. It appears in several publications, often as part of an extensive account of the work of its author. The monograph published in 2007 by the Foundation Alejandro de la Sota, whose edition is run by Teresa Couceiro, is the only specific publication about it. After a brief introduction, in which Sota's intense dedication to this work stands out, it brings together a collection of drawings, photographs and sketches, along with the project report. It offers a fragmented view, which enable to glimpse the interest of this work, but not helps to understand it in full. It is important to highlight the publication of CLESA in the book edited by Pronaos (1989), which includes a selection made by the author of plants, elevations and sections corresponding to the project built, next to photographs of the finished construction, in addition to a brief text as concise as enlightening. About Alejandro de la Sota have been written doctoral thesis, numerous articles, several books as well as held exhibitions collecting his global work, which have been reflected in this document in the resulting specific bibliographies. It should be noted the exhibition in COAM headquarters in 2014, on the occasion of its Centennial, where the building CLESA has a leading role, in a certain way, because of its risk of disappearance.4 The thesis is structured in four chapters: description, analysis, synthesis, and conclusions. The first chapter provides the description of the building object of this thesis. Includes an introduction that puts us in the historic, economic, cultural and social context in which it is developed the commission, the project and construction of the dairy building. The description itself of the industrial complex, starts with the order of the dairy to the author of the project, moves through the draft, the visa project and reaches the completion of the work. The visa project, CLESA's finished and published work, as well as the future of the building is compared. The second part corresponds to the analysis, first from the program as a general approach, studying the circulations, geometric, spatial, skeletal, geographical relations - bit by bit - comprising the manufacturing plant ("la central"). The structure, explanatory introduction of the solutions adopted by Alejandro de la Sota; analysis of the skeletal system of the building by parts, geometric and spatial operations. Construction, analysis of the realization of the work, constructive systems used in the building enclosures, roofs, skylights; from the general to the particular and studying the systems. Finally through small scale unique elements that are part of complex systems, such as multiple stairs, railings, carpentry, viewpoints are summarized. It is recapitulated in a synthesis which forms a whole with the sum of the parts, using linking resources that belongs to the additive architecture, such as the module, tours and visual links The final chapter of Conclusions contrast the hypothesis of the thesis regarding the maximum space architecture with minimal resources. It also includes various reflections as the dialectic between the fragmented space and the single space; expansive or inclusive growth; unique image and representation; domestic and industrial scale; structural abandonment or limitation of means. Perhaps the greatest interest of this thesis lies in the axonometric drawings made of the CLESA complex, which ideally have allowed to restore and rebuild the factory back to the beginning of its activity. Considering its potential full or partial disappearance, such recovery becomes relevant as a testimonial evidence of what it was.
Resumo:
El propósito de esta tesis fue estudiar el rendimiento ofensivo de los equipos de balonmano de élite cuando se considera el balonmano como un sistema dinámico complejo no lineal. La perspectiva de análisis dinámica dependiente del tiempo fue adoptada para evaluar el rendimiento de los equipos durante el partido. La muestra general comprendió los 240 partidos jugados en la temporada 2011-2012 de la liga profesional masculina de balonmano de España (Liga ASOBAL). En el análisis posterior solo se consideraron los partidos ajustados (diferencia final de goles ≤ 5; n = 142). El estado del marcador, la localización del partido, el nivel de los oponentes y el periodo de juego fueron incorporados al análisis como variables situacionales. Tres estudios compusieron el núcleo de la tesis. En el primer estudio, analizamos la coordinación entre las series temporales que representan el proceso goleador a lo largo del partido de cada uno de los dos equipos que se enfrentan. Autocorrelaciones, correlaciones cruzadas, doble media móvil y transformada de Hilbert fueron usadas para el análisis. El proceso goleador de los equipos presentó una alta consistencia a lo largo de todos los partidos, así como fuertes modos de coordinación en fase en todos los contextos de juego. Las únicas diferencias se encontraron en relación al periodo de juego. La coordinación en los procesos goleadores de los equipos fue significativamente menor en el 1er y 2º periodo (0–10 min y 10–20 min), mostrando una clara coordinación creciente a medida que el partido avanzaba. Esto sugiere que son los 20 primeros minutos aquellos que rompen los partidos. En el segundo estudio, analizamos los efectos temporales (efecto inmediato, a corto y a medio plazo) de los tiempos muertos en el rendimiento goleador de los equipos. Modelos de regresión lineal múltiple fueron empleados para el análisis. Los resultados mostraron incrementos de 0.59, 1.40 y 1.85 goles para los periodos que comprenden la primera, tercera y quinta posesión de los equipos que pidieron el tiempo muerto. Inversamente, se encontraron efectos significativamente negativos para los equipos rivales, con decrementos de 0.50, 1.43 y 2.05 goles en los mismos periodos respectivamente. La influencia de las variables situacionales solo se registró en ciertos periodos de juego. Finalmente, en el tercer estudio, analizamos los efectos temporales de las exclusiones de los jugadores sobre el rendimiento goleador de los equipos, tanto para los equipos que sufren la exclusión (inferioridad numérica) como para los rivales (superioridad numérica). Se emplearon modelos de regresión lineal múltiple para el análisis. Los resultados mostraron efectos negativos significativos en el número de goles marcados por los equipos con un jugador menos, con decrementos de 0.25, 0.40, 0.61, 0.62 y 0.57 goles para los periodos que comprenden el primer, segundo, tercer, cuarto y quinto minutos previos y posteriores a la exclusión. Para los rivales, los resultados mostraron efectos positivos significativos, con incrementos de la misma magnitud en los mismos periodos. Esta tendencia no se vio afectada por el estado del marcador, localización del partido, nivel de los oponentes o periodo de juego. Los incrementos goleadores fueron menores de lo que se podría esperar de una superioridad numérica de 2 minutos. Diferentes teorías psicológicas como la paralización ante situaciones de presión donde se espera un gran rendimiento pueden ayudar a explicar este hecho. Los últimos capítulos de la tesis enumeran las conclusiones principales y presentan diferentes aplicaciones prácticas que surgen de los tres estudios. Por último, se presentan las limitaciones y futuras líneas de investigación. ABSTRACT The purpose of this thesis was to investigate the offensive performance of elite handball teams when considering handball as a complex non-linear dynamical system. The time-dependent dynamic approach was adopted to assess teams’ performance during the game. The overall sample comprised the 240 games played in the season 2011-2012 of men’s Spanish Professional Handball League (ASOBAL League). In the subsequent analyses, only close games (final goal-difference ≤ 5; n = 142) were considered. Match status, game location, quality of opposition, and game period situational variables were incorporated into the analysis. Three studies composed the core of the thesis. In the first study, we analyzed the game-scoring coordination between the time series representing the scoring processes of the two opposing teams throughout the game. Autocorrelation, cross-correlation, double moving average, and Hilbert transform were used for analysis. The scoring processes of the teams presented a high consistency across all the games as well as strong in-phase modes of coordination in all the game contexts. The only differences were found when controlling for the game period. The coordination in the scoring processes of the teams was significantly lower for the 1st and 2nd period (0–10 min and 10–20 min), showing a clear increasing coordination behavior as the game progressed. This suggests that the first 20 minutes are those that break the game-scoring. In the second study, we analyzed the temporal effects (immediate effect, short-term effect, and medium-term effect) of team timeouts on teams’ scoring performance. Multiple linear regression models were used for the analysis. The results showed increments of 0.59, 1.40 and 1.85 goals for the periods within the first, third and fifth timeout ball possessions for the teams that requested the timeout. Conversely, significant negative effects on goals scored were found for the opponent teams, with decrements of 0.59, 1.43 and 2.04 goals for the same periods, respectively. The influence of situational variables on the scoring performance was only registered in certain game periods. Finally, in the third study, we analyzed the players’ exclusions temporal effects on teams’ scoring performance, for the teams that suffer the exclusion (numerical inferiority) and for the opponents (numerical superiority). Multiple linear regression models were used for the analysis. The results showed significant negative effects on the number of goals scored for the teams with one less player, with decrements of 0.25, 0.40, 0.61, 0.62, and 0.57 goals for the periods within the previous and post one, two, three, four and five minutes of play. For the opponent teams, the results showed positive effects, with increments of the same magnitude in the same game periods. This trend was not affected by match status, game location, quality of opposition, or game period. The scoring increments were smaller than might be expected from a 2-minute numerical playing superiority. Psychological theories such as choking under pressure situations where good performance is expected could contribute to explain this finding. The final chapters of the thesis enumerate the main conclusions and underline the main practical applications that arise from the three studies. Lastly, limitations and future research directions are described.
Resumo:
En un ejercicio no extenuante la frecuencia cardíaca (FC) guarda una relación lineal con el consumo máximo de oxígeno (V O2max) y se suele usar como uno de los parámetros de referencia para cuantificar la capacidad del sistema cardiovascular. Normalmente la frecuencia cardíaca puede remplazar el porcentaje de V O2max en las prescripciones básicas de ejercicio para la mejora de la resistencia aeróbica. Para obtener los mejores resultados en la mejora de la resistencia aeróbica, el entrenamiento de los individuos se debe hacer a una frecuencia cardíaca suficientemente alta, para que el trabajo sea de predominio dinámico con la fosforilación oxidativa como fuente energética primaria, pero no tan elevada que pueda suponer un riesgo de infarto de miocardio para el sujeto que se está entrenando. Los programas de entrenamiento de base mínima y de base óptima, con ejercicios de estiramientos para prevenir lesiones, son algunos de los programas más adecuados para el entrenamiento de la resistencia aeróbica porque maximizan los beneficios y minimizan los riesgos para el sistema cardiovascular durante las sesiones de entrenamiento. En esta tesis, se ha definido un modelo funcional para sistemas de inteligencia ambiental capaz de monitorizar, evaluar y entrenar las cualidades físicas que ha sido validado cuando la cualidad física es la resistencia aeróbica. El modelo se ha implementado en una aplicación Android utilizando la camiseta inteligente “GOW running” de la empresa Weartech. El sistema se ha comparado en el Laboratorio de Fisiología del Esfuerzo (LFE) de la Universidad Politécnica de Madrid (UPM) durante la realización de pruebas de esfuerzo. Además se ha evaluado un sistema de guiado con voz para los entrenamientos de base mínima y de base óptima. También el desarrollo del software ha sido validado. Con el uso de cuestionarios sobre las experiencias de los usuarios utilizando la aplicación se ha evaluado el atractivo de la misma. Por otro lado se ha definido una nueva metodología y nuevos tipos de cuestionarios diseñados para evaluar la utilidad que los usuarios asignan al uso de un sistema de guiado por voz. Los resultados obtenidos confirman la validez del modelo. Se ha obtenido una alta concordancia entre las medidas de FC hecha por la aplicación Android y el LFE. También ha resultado que los métodos de estimación del VO2max de los dos sistemas pueden ser intercambiables. Todos los usuarios que utilizaron el sistema de guiado por voz para entrenamientos de 10 base mínima y de base óptimas de la resistencia aeróbica consiguieron llevar a cabo las sesiones de entrenamientos con un 95% de éxito considerando unos márgenes de error de un 10% de la frecuencia cardíaca máxima teórica. La aplicación fue atractiva para los usuarios y hubo también una aceptación del sistema de guiado por voz. Se ha obtenido una evaluación psicológica positiva de la satisfacción de los usuarios que interactuaron con el sistema. En conclusión, se ha demostrado que es posible desarrollar sistemas de Inteligencia Ambiental en dispositivos móviles para la mejora de la salud. El modelo definido en la tesis es el primero modelo funcional teórico de referencia para el desarrollo de este tipo de aplicaciones. Posteriores estudios se realizarán con el objetivo de extender dicho modelo para las demás cualidades físicas que suponen modelos fisiológicos más complejos como por ejemplo la flexibilidad. Abstract In a non-strenuous exercise, the heart rate (HR) shows a linear relationship with the maximum volume of oxygen consumption (V O2max) and serves as an indicator of performance of the cardiovascular system. The heart rate replaces the %V O2max in exercise program prescription to improve aerobic endurance. In order to achieve an optimal effect during endurance training, the athlete needs to work out at a heart rate high enough to trigger the aerobic metabolism, while avoiding the high heart rates that bring along significant risks of myocardial infarction. The minimal and optimal base training programs, followed by stretching exercises to prevent injuries, are adequate programs to maximize benefits and minimize health risks for the cardiovascular system during single session training. In this thesis, we have defined an ambient intelligence system functional model that monitors, evaluates and trains physical qualities, and it has been validated for aerobic endurance. It is based on the Android System and the “GOW Running” smart shirt. The system has been evaluated during functional assessment stress testing of aerobic endurance in the Stress Physiology Laboratory (SPL) of the Technical University of Madrid (UPM). Furthermore, a voice system, designed to guide the user through minimal and optimal base training programs, has been evaluated. Also the software development has been evaluated. By means of user experience questionnaires, we have rated the attractiveness of the android application. Moreover, we have defined a methodology and a new kind of questionnaires in order to assess the user experience with the audio exercise guide system. The results obtained confirm the model. We have a high similarity between HR measurements made of our system and the one used by SPL. We have also a high correlation between the VO2max estimations of our system and the SPL system. All users, that tried the voice guidance system for minimal and optimal base training programs, were able to perform the 95% of the training session with an error lower than the 10% of theoretical maximum heart rate. The application appeared attractive to the users, and it has also been proven that the voice guidance system was useful. As result we obtained a positive evaluation of the users' satisfaction while they interacted with the system. In conclusion, it has been demonstrated that is possible to develop mobile Ambient Intelligence applications for the improvement of healthy lifestyle. AmIRTEM model is the first theoretical reference functional model for the design of this kind of applications. Further studies will be realized in order to extend the AmIRTEM model to other physical qualities whose physiological models are more complex than the aerobic endurance.
Resumo:
La estrategia i2010 de la UE tiene como objetivo garantizar el liderazgo europeo en materia de TIC y poner los beneficios de la Sociedad de la Información al servicio de la economía, la sociedad y la calidad de vida personal, teniendo presente que los éxitos de Europa hasta la fecha se han basado en favorecer la competencia leal en los mercados de las telecomunicaciones y crear un mercado sin fronteras para contenidos y medios de comunicación digitales. En esta línea, la Comisión Europea ha establecido que los distintos estados miembros deben contribuir activamente al desarrollo y uso seguro de los servicios telemáticos entre sus ciudadanos. Más concretamente, atribuye a las Administraciones Públicas, tanto a nivel nacional, regional como local, un papel dinamizador de la Sociedad de la Información que les obliga a ofrecer paulatinamente todos los actos administrativos a los ciudadanos a través de Internet. Como primer paso para el uso seguro de los servicios telemáticos que ofrecen las instituciones públicas se hace preciso dotar a los ciudadanos de una identidad digital que les permita identificarse ante un Proveedor de Servicio o ante otros ciudadanos de manera inequívoca. Por esta razón, la mayoría de países europeos – y otros en el resto del mundo – están promoviendo, sistemas fiables de gestión de identidad electrónica (eIDM), de tal manera que los ciudadanos, las empresas y departamentos gubernamentales (incluso en Estados miembros diferentes) pueden identificar y certificar sus operaciones con precisión, rapidez y sencillez. Sin embargo, la gestión de esta identidad por las Administraciones Públicas supone un importante desafío, acentuado cuando se hace necesaria la interoperabilidad entre Administraciones de diferentes países, puesto que personas y entidades tienen credenciales de identificación diferentes en función de su propio marco jurídico nacional. Consciente del problema, en la Unión Europea se han puesto en marcha una serie de proyectos con el objetivo de conseguir la interoperabilidad de los eIDMs entre las instituciones públicas de diferentes Estados miembros. A pesar de ello, las soluciones adoptadas hasta la fecha son insuficientes porque no prevén todos los posibles casos de interacción del usuario con las instituciones. En concreto, no tienen en cuenta un aspecto muy importante que se ofrece en los distintos sistemas jurídicos nacionales, a saber, la delegación de la identidad, mediante la cual un ciudadano puede autorizar a otro para que actúe en su nombre para acceder a determinados servicios prestados por las instituciones públicas. En esta tesis se realizan un conjunto de aportaciones que dan solución a distintos aspectos de los problemas planteados y que, de forma conjunta, permiten la interoperabilidad y la delegación de identidad en determinados Sistemas de Gestión de Identidad aplicados al entorno de las Administraciones Públicas. En el caso de la delegación, se ha definido un sistema de delegación dinámica de identidad entre dos entidades genéricas que permite solucionar el problema del acceso delegado a los servicios telemáticos ofrecidos por las Administraciones Públicas. La solución propuesta se basa en la generación de un token de delegación, constituido a partir de un Certificado Proxy, que permite a la entidad que delega establecer la delegación de identidad en otra entidad en base a un subconjunto de sus atributos como delegador, estableciendo además, en el propio token de delegación, restricciones en el conjunto de servicios accesibles a la entidad delegada y el tiempo de validez de la delegación. Adicionalmente, se presentan los mecanismos necesarios tanto para poder revocar un token de delegación como para comprobar sin un token de delegación ha sido o no revocado. Para ello se propone una solución para la identificación unívoca de tokens de delegación y la creación de una nueva entidad denominada Autoridad de Revocación de Tokens de Delegación. Entre las características del sistema de delegación propuesto destaca el que es lo suficientemente seguro como para ser utilizado en el entorno de la Administración Pública, que no requiere el uso de mecanismos off‐line para la generación de la delegación y que se puede realizar la delegación de forma instantánea y sin la necesidad de trámites complejos o la participación de un elevado número de entidades. Adicionalmente, el token de delegación propuesto es perfectamente integrable en las infraestructura de clave pública actual lo que hace que, dado que gran parte de las Administraciones Públicas europeas basan sus sistemas de identidad digital en el uso de la PKI y certificados de identidad X.509, la solución pueda ser puesta en marcha en un entorno real sin necesidad de grandes cambios o modificaciones de comportamiento. En lo referente a la interoperabilidad, se realiza un análisis exhaustivo y la correspondiente evaluación de las principales propuestas de Sistemas de Gestión de Identidad orientados a conseguir la interoperabilidad realizadas hasta la fecha en el marco de la Unión Europea y se propone, a alto nivel, una arquitectura de interoperabilidad para la gestión de identidad en las Administraciones Públicas. Dicha arquitectura es lo suficientemente genérica como para poder ser aplicada tanto en el entorno pan‐Europeo como en los entornos nacionales, autonómicos y locales, de tal forma que la interoperabilidad en la gestión de la identidad esté garantizada en todos los niveles de la Administración Pública. Por último, mediante la integración de la solución de delegación dinámica de identidad y la arquitectura de interoperabilidad propuestas se presenta una solución al problema de la delegación en un escenario pan‐Europeo de gestión de identidad, dando lugar a una arquitectura global de interoperabilidad pan‐Europea con soporte a la delegación de identidad. SUMMARY The i2010 European Union Plan aims to ensure European leadership in ICT and to promote the positive contribution that information and communication technologies can make to the economic, social and personal quality of life, bearing in mind that, to date, success in Europe has been based on promoting fair competition in telecommunications markets and on creating a borderless market for contents and digital media. In this line, the European Commission has established that the different member states should contribute actively to the development and secure use of telematic services among their citizens. More specifically, it is attributed to national, regional and local Public Administrations to have a supportive role of the Information Society, requiring them to gradually provide the citizens with Internet‐based access to all administrative procedures acts. As a first step for the secure use of telematic services offered by public institutions, it is necessary to provide the citizens with a digital identity to enable them to identify themselves unequivocally to a Service Provider or to other citizens. For this reason, most European countries ‐ and others in the rest of the world ‐ are promoting reliable systems for managing electronic identity (eIDM), so that citizens, businesses and government departments (even in different Member States) can identify and certify their operations with precision, speed and simplicity. However, the identity management by Public Administrations is a major challenge that becomes more difficult when interoperability between administrations of different countries is needed, due to the fact that individuals and entities have different identification credentials according to their own national legal framework. Aware of the problem, the European Union has launched a series of projects with the aim of achieving interoperability of eIDMs between public institutions of different Member States. However, the solutions adopted to date are insufficient because they do not foresee all possible cases of user interaction with the institutions. In particular, solutions do not take into account a very important aspect that is offered in different national legal systems, namely, the delegation of identity, by which a citizen can authorize another to act on his/her behalf to access certain services provided by public institutions. In this thesis a collection of contributions that provide solution to different aspects of the aforementioned problems are carried out. The solutions, in global, enable interoperability and identity delegation in some of the Identity Management Systems applied to Public Administration environment. In the case of delegation, a dynamic identity delegation system between generic entities is defined. This system makes it possible to solve the problem of delegated access to telematic services offered by Public Administrations. The proposed solution is based on the generation of a piece of information called delegation token. This delegation token, derived from a Proxy Certificate, allows the establishment of identity delegation by an entity that delegates (delegator) in other entity (delegatee) making use of a subset of delegator attributes. It also establishes restrictions on services that can be used by the delegated entity and the expiry date of delegation. In addition to this, the mechanisms necessary to revoke and check the revocation status of a delegation token are presented. To do this, a solution to univocally identify delegation tokens and the creation of a completely new entity, called Token Delegation Revocation Authority, are proposed. The most remarkable characteristics of the proposed delegation system are its security, enough for it to be used in the Public Administration environment, the fact that it does not require off‐line processes in order to generate the delegation, and the possibility of performing the delegation instantaneously and without neither complex processes nor the intervention of a large number of entities. The proposed delegation token can be completely incorporated into current Public Key Infrastructure (PKI). Thus, since most of the European Public Administrations base their digital identity systems on PKI and X.509 identity certificates, the solution can be adopted in a real environment without great changes or performance modifications. Regarding interoperability, an exhaustive analysis and evaluation of most significant proposals on Identity Management Systems that aim to achieve interoperability carried out in the European Union framework until now are performed. A high level identity management interoperability architecture for Public Administrations is also proposed. This architecture is sufficiently generic to be applied to both pan‐European environment and national, regional or local environments, thus interoperability in identity management at all Public Administration levels is guaranteed. Finally, through the integration of the proposed dynamic identity delegation solution and the high level interoperability architecture, a solution to the problem of identity delegation in a pan‐European identity management environment is suggested, leading to a pan‐European global interoperability architecture with identity delegation support.
Resumo:
El peso específico de las Comunicaciones Ópticas dentro del ámbito de la Ingeniería de Telecomunicación no cesa de crecer. Sus aplicaciones, inicialmente dedicadas a las grandes líneas que enlazan las centrales de conmutación, alcanzan en la actualidad, como se ha mencionado, hasta los mismos hogares. Los progresos en este campo, con una sucesión sin tregua, no sólo se destinan a incrementar la capacidad de transmisión de los sistemas, sino a ampliar la diversidad de los procesos que sobre las señales se efectúan en el dominio óptico. Este dinamismo demanda a los profesionales del sector una revisión y actualización de sus conocimientos que les permitan resolver con soltura las cuestiones de su actividad de ingeniería. Por otra parte, durante los últimos años la importancia de las Comunicaciones Ópticas también se ha reflejado en las diferentes titulaciones de Ingenierías de Telecomunicación, cuyos planes de estudio contemplan esta materia tanto en asignaturas troncales como optativas. A menudo, las fuentes de información disponibles abordan esta disciplina con una orientación principalmente teórica. Profesionales y estudiantes de Ingeniería, pues, frente a esta materia se encuentran unos temas que tratan fenómenos físicos complejos, abundantes en conceptos abstractos y con un florido aparato matemático, pero muchas veces carentes de una visión práctica, importantísima en ingeniería, y que es, en definitiva, lo que se exige a alumnos e ingenieros: saber resolver problemas y cuestiones relacionados con las Comunicaciones Ópticas. Los sistemas de comunicaciones ópticas, y en especial aquellos que utilizan la fibra óptica como medio para la transmisión de información, como se ha dicho, están alcanzando un desarrollo importante en el campo de las telecomunicaciones. Las bondades que ofrece la fibra, de sobra conocidos y mencionados en el apartado que antecede (gran ancho de banda, inmunidad total a las perturbaciones de origen electromagnético, así como la no producción de interferencias, baja atenuación, etc.), han hecho que, hoy en día, sea uno de los campos de las llamadas tecnologías de la información y la comunicación que presente mayor interés por parte de científicos, ingenieros, operadores de telecomunicaciones y, por supuesto, usuarios. Ante esta realidad, el objetivo y justificación de la realización de este proyecto, por tanto, no es otro que el de acercar esta tecnología al futuro ingeniero de telecomunicaciones, y/o a cualquier persona con un mínimo de interés en este tema, y mostrarle de una forma práctica y visual los diferentes fenómenos que tienen lugar en la transmisión de información por medio de fibra óptica, así como los diferentes bloques y dispositivos en que se divide dicha comunicación. Para conseguir tal objetivo, el proyecto fin de carrera aquí presentado tiene como misión el desarrollo de una interfaz gráfica de usuario (GUI, del inglés Graphic User Interface) que permita a aquel que la utilice configurar de manera sencilla cada uno de los bloques en que se compone un enlace punto a punto de fibra óptica. Cada bloque en que se divide este enlace estará compuesto por varias opciones, que al elegir y configurar como se quiera, hará variar el comportamiento del sistema y presentará al usuario los diferentes fenómenos presentes en un sistema de comunicaciones ópticas, como son el ruido, la dispersión, la atenuación, etc., para una mejor comprensión e interiorización de la teoría estudiada. Por tanto, la aplicación, implementada en MATLAB, fruto de la realización de este PFC pretende servir de complemento práctico para las asignaturas dedicadas al estudio de las comunicaciones ópticas a estudiantes en un entorno amigable e intuitivo. Optical Communications in the field of Telecommunications Engineering continues to grow. Its applications, initially dedicated to large central lines that link the switching currently achieved, as mentioned, to the same household nowadays. Progress in this field, with a relentless succession, not only destined to increase the transmission capacity of the systems, but to broaden the diversity of the processes that are performed on the signals in the optical domain. This demands to professionals reviewing and updating their skills to enable them resolve issues easily. Moreover, in recent years the importance of optical communications is also reflected in the different degrees of Telecommunications Engineering, whose curriculum contemplates this area. Often, the information sources available to tackle this discipline mainly theoretical orientation. Engineering professionals and students are faced this matter are few topics discussing complex physical phenomena, and abstract concepts abundant with a flowery mathematical apparatus, but often wotput a practical, important in engineering, and that is what is required of students and engineers: knowing how to solve problems and issues related to optical communications. Optical communications systems, particularly those using optical fiber as a medium for transmission of information, as stated, are reaching a significant development in the field of telecommunications. The advantages offered by the fiber, well known and referred to in the preceding paragraph (high bandwidth, immunity to electromagnetic disturbances of origin and production of non interference, low attenuation, etc..), have made today, is one of the fields of information and communication technology that this increased interest by scientists, engineers, telecommunications operators and, of course, users. Given this reality, the purpose and justification of this project is not other than to bring this technology to the future telecommunications engineer, and / or anyone with a passing interest in this subject, and showing of a practical and various visual phenomena occurring in the transmission of information by optical fiber, as well as different blocks and devices in which said communication is divided. To achieve that objective, the final project presented here has as its mission the development of a graphical user interface (GUI) that allows the user to configure each of the blocks in which divided a point-to-point optical fiber. Each block into which this link will consist of several options to choose and configure it as you like, this will change the behavior of the system and will present to the user with the different phenomena occurring in an optical communication system, such as noise, dispersion, attenuation, etc., for better understanding and internalization of the theory studied. Therefore, the application, implemented in MATLAB, the result of the completion of the thesis is intended to complement practical subjects for the study of optical communications students in a friendly and intuitive environment.
Resumo:
Esta tesis doctoral se enmarca dentro de la computación con membranas. Se trata de un tipo de computación bio-inspirado, concretamente basado en las células de los organismos vivos, en las que se producen múltiples reacciones de forma simultánea. A partir de la estructura y funcionamiento de las células se han definido diferentes modelos formales, denominados P sistemas. Estos modelos no tratan de modelar el comportamiento biológico de una célula, sino que abstraen sus principios básicos con objeto de encontrar nuevos paradigmas computacionales. Los P sistemas son modelos de computación no deterministas y masivamente paralelos. De ahí el interés que en los últimos años estos modelos han suscitado para la resolución de problemas complejos. En muchos casos, consiguen resolver de forma teórica problemas NP-completos en tiempo polinómico o lineal. Por otra parte, cabe destacar también la aplicación que la computación con membranas ha tenido en la investigación de otros muchos campos, sobre todo relacionados con la biología. Actualmente, una gran cantidad de estos modelos de computación han sido estudiados desde el punto de vista teórico. Sin embargo, el modo en que pueden ser implementados es un reto de investigación todavía abierto. Existen varias líneas en este sentido, basadas en arquitecturas distribuidas o en hardware dedicado, que pretenden acercarse en lo posible a su carácter no determinista y masivamente paralelo, dentro de un contexto de viabilidad y eficiencia. En esta tesis doctoral se propone la realización de un análisis estático del P sistema, como vía para optimizar la ejecución del mismo en estas plataformas. Se pretende que la información recogida en tiempo de análisis sirva para configurar adecuadamente la plataforma donde se vaya a ejecutar posteriormente el P sistema, obteniendo como consecuencia una mejora en el rendimiento. Concretamente, en esta tesis se han tomado como referencia los P sistemas de transiciones para llevar a cabo el estudio de dicho análisis estático. De manera un poco más específica, el análisis estático propuesto en esta tesis persigue que cada membrana sea capaz de determinar sus reglas activas de forma eficiente en cada paso de evolución, es decir, aquellas reglas que reúnen las condiciones adecuadas para poder ser aplicadas. En esta línea, se afronta el problema de los estados de utilidad de una membrana dada, que en tiempo de ejecución permitirán a la misma conocer en todo momento las membranas con las que puede comunicarse, cuestión que determina las reglas que pueden aplicarse en cada momento. Además, el análisis estático propuesto en esta tesis se basa en otra serie de características del P sistema como la estructura de membranas, antecedentes de las reglas, consecuentes de las reglas o prioridades. Una vez obtenida toda esta información en tiempo de análisis, se estructura en forma de árbol de decisión, con objeto de que en tiempo de ejecución la membrana obtenga las reglas activas de la forma más eficiente posible. Por otra parte, en esta tesis se lleva a cabo un recorrido por un número importante de arquitecturas hardware y software que diferentes autores han propuesto para implementar P sistemas. Fundamentalmente, arquitecturas distribuidas, hardware dedicado basado en tarjetas FPGA y plataformas basadas en microcontroladores PIC. El objetivo es proponer soluciones que permitan implantar en dichas arquitecturas los resultados obtenidos del análisis estático (estados de utilidad y árboles de decisión para reglas activas). En líneas generales, se obtienen conclusiones positivas, en el sentido de que dichas optimizaciones se integran adecuadamente en las arquitecturas sin penalizaciones significativas. Summary Membrane computing is the focus of this doctoral thesis. It can be considered a bio-inspired computing type. Specifically, it is based on living cells, in which many reactions take place simultaneously. From cell structure and operation, many different formal models have been defined, named P systems. These models do not try to model the biological behavior of the cell, but they abstract the basic principles of the cell in order to find out new computational paradigms. P systems are non-deterministic and massively parallel computational models. This is why, they have aroused interest when dealing with complex problems nowadays. In many cases, they manage to solve in theory NP problems in polynomial or lineal time. On the other hand, it is important to note that membrane computing has been successfully applied in many researching areas, specially related to biology. Nowadays, lots of these computing models have been sufficiently characterized from a theoretical point of view. However, the way in which they can be implemented is a research challenge, that it is still open nowadays. There are some lines in this way, based on distributed architectures or dedicated hardware. All of them are trying to approach to its non-deterministic and parallel character as much as possible, taking into account viability and efficiency. In this doctoral thesis it is proposed carrying out a static analysis of the P system in order to optimize its performance in a computing platform. The general idea is that after data are collected in analysis time, they are used for getting a suitable configuration of the computing platform in which P system is going to be performed. As a consequence, the system throughput will improve. Specifically, this thesis has made use of Transition P systems for carrying out the study in static analysis. In particular, the static analysis proposed in this doctoral thesis tries to achieve that every membrane can efficiently determine its active rules in every evolution step. These rules are the ones that can be applied depending on the system configuration at each computational step. In this line, we are going to tackle the problem of the usefulness states for a membrane. This state will allow this membrane to know the set of membranes with which communication is possible at any time. This is a very important issue in determining the set of rules that can be applied. Moreover, static analysis in this thesis is carried out taking into account other properties such as membrane structure, rule antecedents, rule consequents and priorities among rules. After collecting all data in analysis time, they are arranged in a decision tree structure, enabling membranes to obtain the set of active rules as efficiently as possible in run-time system. On the other hand, in this doctoral thesis is going to carry out an overview of hardware and software architectures, proposed by different authors in order to implement P systems, such as distributed architectures, dedicated hardware based on PFGA, and computing platforms based on PIC microcontrollers. The aim of this overview is to propose solutions for implementing the results of the static analysis, that is, usefulness states and decision trees for active rules. In general, conclusions are satisfactory, because these optimizations can be properly integrated in most of the architectures without significant penalties.
Resumo:
La creciente demanda de sistemas informáticos abiertos y con gran interacción entre cada una de sus partes, incluyendo también usuarios humanos, ha hecho aumentar el interés y el uso de sistemas donde múltiples agentes interactúan para alcanzar sus metas. Las interacciones pueden tener el objetivo de mejorar la eficiencia de los agentes aumentando el rendimiento del sistema, pero también pueden estar pensadas para posibilitar que nuevas metas —que un agente no sería capaz de alcanzar de forma individual— puedan ser conseguidas cuando varios de ellos trabajan en conjunto. En paralelo a este crecimiento, con el avance en el campo de investigación de los agentes software, y también por los recientes descubrimientos acerca de la importancia de determinados aspectos cognitivos en el proceso de toma de decisión y resolución de problemas, la idea de la inclusión de influencias cognitivas en el modelo de razonamiento de estos agentes se presenta como una alternativa muy atractiva para mejorar su comportamiento en general, y especialmente el social, en comparación con sistemas que no consideran estos aspectos en el diseño de soluciones para entornos complejos. Pensando en proveer una solución que pueda contribuir, de alguna manera, al avance en estas dos áreas, el presente trabajo presenta una arquitectura cognitiva para modelar agentes con habilidades sociales partiendo de una arquitectura base, que proporciona los comportamientos cognitivos reactivos y deliberativos de los agentes. La arquitectura ampliada debe aportar agentes cognitivos sociales capaces de afrontar mejor el aumento de la complejidad de los sistemas y presentar comportamientos más coherentes, explicables y más creíbles durante sus interacciones con los demás. Dos teorías sociológicas proponen los componentes y estructuras que han inspirado el desarrollo de esta arquitectura social, aportando mecanismos que permiten obtener una coordinación descentralizada en un entorno social dinámico y rico en interacciones: la Teoría de Roles y la Teoría de la Actividad. Los resultados alcanzados con el desarrollo de esta arquitectura dejan traslucir su capacidad para modelar agentes sociales cognitivos capaces de interactuar de forma personalizada entre ellos para la satisfacción de metas. Los nuevos componentes y mecanismos de la arquitectura han permitido conjugar y enriquecer los comportamientos reactivo-deliberativos de la arquitectura base con comportamientos sociales elaborados.
Resumo:
En este proyecto se estudiarán las interferencias en el canal adyacente de los sistemas celulares, ubicados en las bandas de 900 y 1800 MHz. Para esto, se analizarán medidas de interferencia entre LTE y otros sistemas de comunicación celular. En el primer capítulo, se dará una breve descripción de los principales parámetros empleados en los distintos estándares de comunicaciones móviles, que operan en las bandas de frecuencia de interés. En el segundo, se van a explicar los distintos tipos de interferencias existentes entre sistemas celulares. También se verán las diferentes técnicas para reducir dichas interferencias, como por ejemplo, la de control de potencia y la de coordinación de interferencia entre celdas. Además, se explicarán los parámetros para determinar la interferencia en el canal adyacente, como son el ACLR, ACS y ACIR. Para finalizar se resumirán las principales características de los sistemas LTE y WiMAX. En el tercer capítulo, se estudiarán las interferencias que genera principalmente LTE a los otros sistemas celulares, mediante los parámetros que miden la interferencia en el canal adyacente explicados en el capítulo dos. Además, se determinará la separación en frecuencia que debe existir entre los canales para que los sistemas puedan coexistir. El capítulo cuatro se basa en la simulación de tres escenarios de interferencia entre dichos sistemas. Para esto, se utilizará el software de simulación de propagación radio, denominado Radio Plan. Con estas simulaciones se cuantificarán las pérdidas de rendimiento que sufren los sistemas interferidos. Por último, en el capítulo cinco se resumirán las conclusiones a las que se llegaron después de simular los diferentes escenarios de interferencia. SUMMARY In this project an adjacent channel interference study for cellular systems, allocated within 900 MHz and 1800 MHz bands will be performed. For this aim a set of measurements will be analyzed. In the first chapter, a brief explanation of the main parameters used in different mobile communications standards that operate in the frequency bands of interest, will be given. In the second chapter, different types of interference between cellular systems will be explained, as well as different techniques to reduce such interference. For example, power control and interference coordination between cells, will be shown. Furthermore, the parameters to determine the adjacent-channel interference, such as the ACLR, ACS and ACIR will be overviewed. Finally, the main features of LTE and WiMAX systems will be summarized. In the third chapter, the interference generated by the other mainly LTE cellular systems via parameters that measure the adjacent channel interference explained in chapter two will be studied. Also, the frequency separation that must exist between the channels so that the systems can coexist will be determined. The fourth chapter is based on the simulation of three scenarios of interference between these systems. For this purpose, a radio propagation simulation software package Radio Plan will be used. These simulations will quantify performance losses suffered by systems that interfered. Finally, in chapter five the conclusions about the results of simulations of interference in different scenarios will be presented.
Resumo:
La complejidad en los proyectos y la complejidad de la dirección de proyectos son conceptos cuyo interés va en aumento. En el ámbito de los proyectos, dado que la gestión de recursos y las actividades suceden en interacción con las personas, la complejidad en dirección de proyectos resulta ser una práctica inherentemente social. Esto ha hecho que en la actualidad se haya convertido en una necesidad profundizar en el concepto. En el primer capítulo de esta investigación, se hace una revisión del estado del arte del concepto y se construye un marco teórico que permite establecer y justificar las dimensiones de la complejidad en esta disciplina. De igual manera, con una revisión similar de los estándares internacionales existentes, se descubren las herramientas y modelos para el análisis de la complejidad en dirección de proyectos, con la que se pretende, a través de la práctica profesional desde organismos y alianzas internacionales, ayudar a contrastar la utilidad e interés de los conceptos propuestos. En el segundo capítulo, se presenta un marco conceptual sobre la certificación de competencias, se analizan y comparan los principales sistemas de certificación de competencias vigentes en el ámbito de la dirección de proyectos. En el tercer capítulo, se presenta un proceso metodológico novedoso para valorar, desde la integración del conocimiento experto y experimentado, dos aspectos complementarios de la complejidad de la dirección de proyectos: (a) la valoración del nivel de complejidad del proyecto; y (b), la valoración de los efectos en el desarrollo de las competencias de comportamiento de las partes implicadas. La metodología propuesta se aplica a la Comunidad de Regantes LASESA en Huesca (España), proceso que se presenta en el cuarto capítulo. LASESA es un proyecto complejo que gestiona los recursos hídricos de 10.000 hectáreas y con más de 600 propietarios implicados. Los resultados evidencian como la gestión de un proyecto complejo genera efectos positivos en el desarrollo de las competencias de comportamiento de las personas que se implican y participan en los trabajos….. ABSTRACT The complexity of the projects and the complexity of project management are concepts whose interest is increasing. In terms of projects, since the management of resources and activities occur in interaction with people, the project management complexity makes an inherently social practice. This has now has become a necessity to deepen the concept. In the first chapter of this study, we review the state of art of the concept and builds a theoretical framework that allows to establish and justify the dimensions of the complexity in this discipline. Likewise, a similar review of existing international standards, we discover the tools and models for the analysis of complexity in project management, with which it is intended, through professional practice from agencies and international alliances, help to compare the usefulness and interest of the proposed concepts. In the second chapter, we present a conceptual framework for the certification of competences, are analyzed and compared the main skills certification systems in force in the field of project management. In the third chapter, we present a novel methodological process to assess, since the integration of expert knowledge and experienced, complementary aspects of the complexity of project management: (a) the assessment of the level of complexity of the project, and (b ), the assessment of the effects on the development of behavioral competencies of the parties involved. The proposed methodology is applied to the Community Irrigation LASESA in Huesca (Spain), a process that is presented in the fourth chapter. LASESA is a complex project that manages the water resources of 10,000 acres and more than 600 landowners involved. The results show as managing a complex project generates positive effects on the development of behavioral competencies of people who are involved and participate in the work.
Resumo:
La diversidad de propiedades que tienen los actuales sistemas digitales es tan amplia —su complejidad tan creciente— que el uso del ordenador resulta obligado tanto para su diseño como para su simulación y puesta a punto. La organización modular de un sistema simplifica notablemente su diseño y reconfiguración (Alabau, 1973). Hoy no resulta grave en principio, el desaprovechar un cierto número de componentes básicos de un circuito integrado. Sin embargo adquiere especial importancia como tema de futuro el diseño concreto de esos módulos en el contexto de un enfoque nuevo del diseño de complejos sistemas digitales y hasta renace el escrupuloso planteamiento de los antiguos criterios de diseño (Harrison, 1965) dirigidos a minimizar el número de componentes.
Resumo:
El objetivo principal de la ventilación es garantizar las condiciones de explotación en servicio y de seguridad en caso de incendio en el interior del túnel. En la mayoría de los túneles de una cierta importancia esto se consigue mediante la disposición de instalaciones mecánicas de ventilación que permiten forzar el desplazamiento del aire de la forma deseada. Los principios de funcionamiento que pueden encontrarse en la práctica son muy diversos aunque pueden clasificarse según el comportamiento del aire en el interior del túnel (PIARC, Circular Francesa) o en función de si existen o no elementos de separación entre la zona reservada a la circulación de los vehículos y los conductos de ventilación (Recomendaciones suizas). Siguiendo este último principio de clasificación, los que no presentan losa intermedia son aquellos en los que se emplean aceleradores y/o pozos de ventilación para conseguir las condiciones adecuadas. En cuanto a los sistemas que presentan losa intermedia existen dos principalmente el transversal y el semitransversal. En los sistemas de tipo transversal, durante el funcionamiento en servicio, en un tramo determinado del túnel el aporte de aire fresco es el mismo que el de extracción de tal forma que, en condiciones de igualdad de presión entre sus extremos, no existe corriente longitudinal. En cuanto a la sección transversal, el conducto de aire viciado debe situarse en la parte superior ocupando la sección superior de la bóveda de tal forma que permita la extracción de humos en caso de incendio a través de exutorios. En cambio, el aporte de aire fresco se suele realizar mediante aberturas situadas al nivel de la calzada o en la parte superior (aunque es desaconsejable) alimentadas desde conductos que pueden ir situados bajo la calzada o compartiendo la sección superior, en cuyo caso se dispone un tabique de separación entre ambos. En los sistemas de tipo semitransversal, durante el funcionamiento en servicio, se pretende dar a cada zona del túnel la cantidad de aire fresco necesario para diluir los contaminantes que allí se producen. El aire fresco se introduce a lo largo de todo el túnel a través de una serie de aberturas que comunican un conducto auxiliar situado en un falso techo del túnel. El aire contaminado sale a través de las bocas. Para prevenir el caso de incendio este tipo de ventilación puede estar preparada para invertir el sentido del aire y pasar a una aspiración a lo largo del túnel o en zonas localizadas. En este caso se denomina semitransversal reversible. En el caso de túneles de gran longitud es habitual la subdivisión del túnel en zonas o cantones que son alimentados desde una misma estación de ventilación, para lo que es preciso dividir el conducto de distribución en dos o más partes, quedando una de las secciones destinada a la distribución de aire al interior del túnel y la otra como transición al siguiente cantón. En el caso de sistemas de ventilación de tipo semitransversal reversible cada uno de los conductos puede ser empleado tanto para el aporte de aire fresco (sobrepresión) como la extracción de humos en caso de incendio (subpresión). Si a esto se añade la disposición de sistemas de ventiladores redundantes que permitan el auxilio en caso de fallo de algún equipo, es necesaria la disposición de complejos sistemas de registros para conectar los ventiladores. El tabique de separación entre los conductos se ve por tanto sometido a diferencias de presiones según el modo de funcionamiento, por lo que son precisos distintos escenarios de hipótesis de carga.
Resumo:
La observación de la Tierra es una herramienta de gran utilidad en la actualidad para el estudio de los fenómenos que se dan en la misma. La observación se puede realizar a distintas escalas y por distintos métodos dependiendo del propósito. El actual Trabajo Final de Grado persigue exponer la observación del territorio mediante técnicas de Teledetección, o Detección Remota, y su aplicación en la exploración de hidrocarburos. Desde la Segunda Guerra Mundial el capturar imágenes aéreas de regiones de la Tierra estaba restringido a usos cartográficos en el sentido estricto. Desde aquellos tiempos, hasta ahora, ha acontecido una serie de avances científicos que permiten deducir características intrínsecas de la Tierra mediante mecanismos complejos que no apreciamos a simple vista, pero que, están configurados mediante determinados parámetros geométricos y electrónicos, que permiten generar series temporales de fenómenos físicos que se dan en la Tierra. Hoy en día se puede afirmar que el aprovechamiento del espectro electromagnético está en un punto máximo. Se ha pasado del análisis de la región del espectro visible al análisis del espectro en su totalidad. Esto supone el desarrollo de nuevos algoritmos, técnicas y procesos para extraer la mayor cantidad de información acerca de la interacción de la materia con la radiación electromagnética. La información que generan los sistemas de captura va a servir para la aplicación directa e indirecta de métodos de prospección de hidrocarburos. Las técnicas utilizadas en detección por sensores remotos, aplicadas en campañas geofísicas, son utilizadas para minimizar costes y maximizar resultados en investigaciones de campo. La predicción de anomalías en la zona de estudio depende del analista, quien diseña, calcula y evalúa las variaciones de la energía electromagnética reflejada o emitida por la superficie terrestre. Para dicha predicción se revisarán distintos programas espaciales, se evaluará la bondad de registro y diferenciación espectral mediante el uso de distintas clasificaciones (supervisadas y no supervisadas). Por su influencia directa sobre las observaciones realizadas, se realiza un estudio de la corrección atmosférica; se programan distintos modelos de corrección atmosférica para imágenes multiespectrales y se evalúan los métodos de corrección atmosférica en datos hiperespectrales. Se obtendrá temperatura de la zona de interés utilizando los sensores TM-4, ASTER y OLI, así como un Modelo Digital del Terreno generado por el par estereoscópico capturado por el sensor ASTER. Una vez aplicados estos procedimientos se aplicarán los métodos directos e indirectos, para la localización de zonas probablemente afectadas por la influencia de hidrocarburos y localización directa de hidrocarburos mediante teledetección hiperespectral. Para el método indirecto se utilizan imágenes capturadas por los sensores ETM+ y ASTER. Para el método directo se usan las imágenes capturadas por el sensor Hyperion. ABSTRACT The observation of the Earth is a wonderful tool for studying the different kind of phenomena that occur on its surface. The observation could be done by different scales and by different techniques depending on the information of interest. This Graduate Thesis is intended to expose the territory observation by remote sensing acquiring data systems and the analysis that can be developed to get information of interest. Since Second World War taking aerials photographs of scene was restricted only to a cartographic sense. From these days to nowadays, it have been developed many scientific advances that make capable the interpretation of the surface behavior trough complex systems that are configure by specific geometric and electronic parameters that make possible acquiring time series of the phenomena that manifest on the earth’s surface. Today it is possible to affirm that the exploitation of the electromagnetic spectrum is on a maxim value. In the past, analysis of the electromagnetic spectrum was carry in a narrow part of it, today it is possible to study entire. This implicates the development of new algorithms, process and techniques for the extraction of information about the interaction of matter with electromagnetic radiation. The information that has been acquired by remote sensing sensors is going to be a helpful tool for the exploration of hydrocarbon through direct and vicarious methods. The techniques applied in remote sensing, especially in geophysical campaigns, are employed to minimize costs and maximize results of ground-based geologic investigations. Forecasting of anomalies in the region of interest depends directly on the expertise data analyst who designs, computes and evaluates variations in the electromagnetic energy reflected or emanated from the earth’s surface. For an optimal prediction a review of the capture system take place; assess of the goodness in data acquisition and spectral separability, is carried out by mean of supervised and unsupervised classifications. Due to the direct influence of the atmosphere in the register data, a study of the minimization of its influence has been done; a script has been programed for the atmospheric correction in multispectral data; also, a review of hyperspectral atmospheric correction is conducted. Temperature of the region of interest is computed using the images captured by TM-4, ASTER and OLI, in addition to a Digital Terrain Model generated by a pair of stereo images taken by ASTER sensor. Once these procedures have finished, direct and vicarious methods are applied in order to find altered zones influenced by hydrocarbons, as well as pinpoint directly hydrocarbon presence by mean of hyperspectral remote sensing. For this purpose ETM+ and ASTER sensors are used to apply the vicarious method and Hyperion images are used to apply the direct method.