786 resultados para Universidad Politécnica
Resumo:
La presente investigación se llevó a cabo en la Universidad Politécnica de Madrid (España) conjuntamente con la Universidad Nacional Experimental del Táchira (Venezuela). El estudio consistió en diseñar una cavidad interna dentro del perfil aerodinámico 2415-3s, el cual fue desarrollado en la Universidad Técnica Checa (Praga, República Checa). Se realizó un estudio computacional, mediante la técnica del CFD, de diferentes modelos de cavidades internas en este perfil, para seleccionar el diseño más adecuado, fabricando un prototipo en 3D; logrando de esta manera validar la simulación computacional con los datos experimentales obtenidos con los ensayos en el túnel de viento AF6109 de la Universidad Nacional Experimental del Táchira. También se aplicaron técnicas de visualización en el túnel de viento, como líneas de corriente de humo y películas de aceite sobre el perfil aerodinámico. Dicho procedimiento permitió corroborar la validación de la simulación computacional. El perfil aerodinámico seleccionado se denominó 2415-3s-TC, cuya característica principal consiste en tres canales independientes entre sí, alojados dentro de la cavidad interna, permitiendo que el flujo de aire forzado a través de la cavidad, cambiara de dirección, para desembocar lo más tangencialmente, así como, lo más perpendicularmente posible al escalón del perfil aerodinámico 2415-3s. Esta configuración de diseñó permitió elevar el coeficiente de sustentación para ángulos de ataque mayores a 8º, así como para ángulos cercanos al ángulo crítico. ABSTRACT This research was conducted at the Polytechnic University of Madrid (Spain) together with the National Experimental University of Táchira (Venezuela). The study was to design an internal cavity within the airfoil 2415-3s, which was developed in the Czech Technical University (Prague, Czech Republic). A computational study was performed using CFD technique, different models of internal cavities in the profile to select the most appropriate design, manufacturing a prototype 3D; thus achieving validate the computer simulation with experimental data obtained from the tests in the wind tunnel AF6109 of the National Experimental University of Táchira. Visualization techniques were also applied in the wind tunnel, as streamlines smoke and oil films on the airfoil. This procedure corroborated validation of computational simulation. The airfoil selected denominated 2415-3s-TC, whose main characteristic consists of three independent channels each other, housed within the inner cavity, allowing the forced air flow through the cavity, change direction, to lead as more tangentially and, as perpendicular as possible to the step 2415-3s aerofoil. This configuration designed allowed increasing the lift coefficient for higher angles of attack to 8º, and for angles near the critical angle.
Resumo:
Las compañías de desarrollo de software buscan reducir costes a través del desarrollo de diseños que permitan: a) facilidad en la distribución del trabajo de desarrollo, con la menor comunicación de las partes; b) modificabilidad, permitiendo realizar cambios sobre un módulo sin alterar las otras partes y; c) comprensibilidad, permitiendo estudiar un módulo del sistema a la vez. Estas características elementales en el diseño de software se logran a través del diseño de sistemas cuasi-descomponibles, cuyo modelo teórico fue introducido por Simon en su búsqueda de una teoría general de los sistemas. En el campo del diseño de software, Parnas propone un camino práctico para lograr sistemas cuasi-descomponibles llamado el Principio de Ocultación de Información. El Principio de Ocultación de Información es un criterio diferente de descomposición en módulos, cuya implementación logra las características deseables de un diseño eficiente a nivel del proceso de desarrollo y mantenimiento. El Principio y el enfoque orientado a objetos se relacionan debido a que el enfoque orientado a objetos facilita la implementación del Principio, es por esto que cuando los objetos empiezan a tomar fuerza, también aparecen paralelamente las dificultades en el aprendizaje de diseño de software orientado a objetos, las cuales se mantienen hasta la actualidad, tal como se reporta en la literatura. Las dificultades en el aprendizaje de diseño de software orientado a objetos tiene un gran impacto tanto en las aulas como en la profesión. La detección de estas dificultades permitirá a los docentes corregirlas o encaminarlas antes que éstas se trasladen a la industria. Por otro lado, la industria puede estar advertida de los potenciales problemas en el proceso de desarrollo de software. Esta tesis tiene como objetivo investigar sobre las dificultades en el diseño de software orientado a objetos, a través de un estudio empírico. El estudio fue realizado a través de un estudio de caso cualitativo, que estuvo conformado por tres partes. La primera, un estudio inicial que tuvo como objetivo conocer el entendimiento de los estudiantes alrededor del Principio de Ocultación de Información antes de que iniciasen la instrucción. La segunda parte, un estudio llevado a cabo a lo largo del período de instrucción con la finalidad de obtener las dificultades de diseño de software y su nivel de persistencia. Finalmente, una tercera parte, cuya finalidad fue el estudio de las dificultades esenciales de aprendizaje y sus posibles orígenes. Los participantes de este estudio pertenecieron a la materia de Software Design del European Master in Software Engineering de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Los datos cualitativos usados para el análisis procedieron de las observaciones en las horas de clase y exposiciones, entrevistas realizadas a los estudiantes y ejercicios enviados a lo largo del período de instrucción. Las dificultades presentadas en esta tesis en sus diferentes perspectivas, aportaron conocimiento concreto de un estudio de caso en particular, realizando contribuciones relevantes en el área de diseño de software, docencia, industria y a nivel metodológico. ABSTRACT The software development companies look to reduce costs through the development of designs that will: a) ease the distribution of development work with the least communication between the parties; b) changeability, allowing to change a module without disturbing the other parties and; c) understandability, allowing to study a system module at a time. These basic software design features are achieved through the design of quasidecomposable systems, whose theoretical model was introduced by Simon in his search for a general theory of systems. In the field of software design, Parnas offers a practical way to achieve quasi-decomposable systems, called The Information Hiding Principle. The Information Hiding Principle is different criterion for decomposition into modules, whose implementation achieves the desirable characteristics of an efficient design at the development and maintenance level. The Principle and the object-oriented approach are related because the object-oriented approach facilitates the implementation of The Principle, which is why when objects begin to take hold, also appear alongside the difficulties in learning an object-oriented software design, which remain to this day, as reported in the literature. Difficulties in learning object-oriented software design has a great impact both in the classroom and in the profession. The detection of these difficulties will allow teachers to correct or route them before they move to the industry. On the other hand, the industry can be warned of potential problems related to the software development process. This thesis aims to investigate the difficulties in learning the object-oriented design, through an empirical study. The study was conducted through a qualitative case study, which consisted of three parts. The first, an initial study was aimed to understand the knowledge of the students around The Information Hiding Principle before they start the instruction. The second part, a study was conducted during the entire period of instruction in order to obtain the difficulties of software design and their level of persistence. Finally, a third party, whose purpose was to study the essential difficulties of learning and their possible sources. Participants in this study belonged to the field of Software Design of the European Master in Software Engineering at the Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. The qualitative data used for the analysis came from the observations in class time and exhibitions, performed interviews with students and exercises sent over the period of instruction. The difficulties presented in this thesis, in their different perspectives, provided concrete knowledge of a particular case study, making significant contributions in the area of software design, teaching, industry and methodological level.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
Este trabajo contiene el diseño y análisis de dos modalidades de docencia de programación de aplicaciones móviles, con el objetivo de aumentar el interés de los estudiantes de enseñanza secundaria por la Ingeniería Informática. Primeramente se analizó la estructura y el contenido de las diferentes materias relacionadas con la informática que existen actualmente en la educación secundaria en España, con el fin de localizar las carencias del currículo. Estas carencias principales son: la falta de reconocimiento de la Ingeniería informática al mismo nivel que el resto de ingenierías y una falta de contenidos relacionados con el desarrollo de software, tanto a nivel de programación como de diseño. A continuación, una vez analizados diferentes posibilidades de entornos con los que desarrollar dichos cursos, se diseñaron los dos modelos de docencia utilizando App Inventor como herramienta conductora, con los que poder cubrir esos conocimientos. El primer modelo consiste en un curso de cuatro semanas a impartir directamente en el centro, mientras que el segundo se trata de un taller de una mañana a impartir en la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. De los resultados de esos modelos se han obtenidos resultados muy positivos en cuanto al incremento de los conocimientos de los alumnos sobre informática, además de aumentar su interés por la Ingeniería Informática y obtener una visión más ajustada a la realidad de la misma.---ABSTRACT---This work details the design and realization of a workshop and a course for teaching mobile application programming to Spanish high school students, with the aim of increasing their interest in Computing. In order to locate the shortcomings of the curriculum, the structure and contents of various subjects related to Computing in currently secondary education in Spain were analyzed. The results show a lack of recognition of computer engineering at the same level as the rest of engineering disciplines and a lack of content related to software development, both in terms of programming and design. Then, after analyzing existing programming environments available for covering the basic programming objectives, App Inventor was chosen as mobile programming environment for both teaching activities (the workshop and the course). The first activity consists of a four-week course to teach directly in the high school, while the second one is a 4-hour workshop to be held at the university. The workshop and the course were carried out with students of two secondary schools, obtaining very positive results in terms of increasing students’ knowledge about computers, increasing their interest in Computing, and making them get a more accurate vision of the discipline.
Resumo:
Esta tesis se centra en el estudio de una secuencia de procesos basados en la tecnología láser y ejecutados en dispositivos fotovoltaicos, que son imprescindibles para el desarrollo en general de las tecnologías fotovoltaicas basadas en lámina delgada y, en particular, de aquellas que utilizan silicio amorfo como absorbente, así como en aplicaciones posteriores de estas tecnologías de alto valor añadido como es la integración arquitectónica de este tipo de dispositivos. En gran parte de las tecnologías FV de lámina delgada, y muy particularmente en la de silicio amorfo, el material se deposita sobre un substrato en un área lo suficientemente grande para que se requiera de un proceso de subdivisión del dispositivo en células de tamaño adecuado, y su posterior conexión en serie para garantizar las figuras eléctricas nominales del dispositivo. Este proceso se ha desarrollado industrialmente hace años, pero no ha habido un esfuerzo científico asociado que permitiera conocer en profundidad los efectos que los procesos en si mismos tiene de forma individualizada sobre los materiales que componen el dispositivo y sus características finales. Este trabajo, desarrollado durante años en el Centro Láser de la UPM, en estrecha colaboración con Centro de Investigaciones Energéticas y Medioambientales (CIEMAT), la Universidad de Barcelona (UB), y la Universidad Politécnica de Cataluña (UPC), se centra justamente en un estudio detallado de dichos procesos, denominados habitualmente P1, P2, P3 y P4 atendiendo al orden en el que se realizan en el dispositivo. Este estudio incluye tanto la parametrización de los procesos, el análisis del efecto que los mismos producen sobre los materiales que componen el dispositivo y su comportamiento fotoeléctrico final, así como la evaluación del potencial uso de fuentes láser de última generación (ultrarrápidas) frente al estándar industrial en la actualidad que es el empleo de fuentes láser convencionales de ancho temporal en el rango de los nanosegundos. En concreto se ha estudiado en detalle las ventajas y limitaciones del uso de sistemas con diferentes rangos espectrales (IR, VIS y UV) y temporales (nanosegundos y picosegundos) para diferentes tipos de configuraciones y disposiciones tecnológicas (entendiendo por estas las habituales configuraciones en substrato y superestrato de este tipo de dispositivos). La caracterización individual de los procesos fue realizada primeramente en células de laboratorio específicamente diseñadas, abriendo nuevos planteamientos y conceptos originales para la mejora de los procesos láser de interconexión y posibilitando el empleo y desarrollo de técnicas y métodos avanzados de caracterización para el estudio de los procesos de ablación en las distintas láminas que conforman la estructura de los dispositivos fotovoltaicos, por lo que se considera que este trabajo ha propuesto una metodología completamente original, y que se ha demostrado efectiva, en este ámbito. Por último el trabajo aborda un tema de particular interés, como es el posible uso de los procesos desarrollados, no para construir los módulos fotovoltaicos en sí, sino para personalizarlos en forma y efectos visuales para potenciar su uso mediante elementos integrables arquitectónicamente, lo que es un ámbito de gran potencial de desarrollo futuro de las tecnologías fotovoltaicas de lámina delgada. En concreto se presentan estudios de fabricación de dispositivos integrables arquitectónicamente y plenamente funcionales no solo en dispositivos de silicio amorfo con efectos de transparencias y generación de formas libres, si no que también se incluye la posibilidad de hacer tales dispositivos con células de silicio cristalino estándar que es la tecnología fotovoltaica de mayor presencia en mercado. Es importante, además, resaltar que la realización de este trabajo ha sido posible gracias a la financiación obtenida con dos proyectos de investigación aplicada, MICROSIL (PSE-120000-2008-1) e INNDISOL (IPT-420000-2019-6), y los correspondientes al Plan Nacional de I+D+I financiados por el ministerio de Ciencia e Innovación y el Ministerio de Economía y Competitividad: CLÁSICO (ENE 2007- 67742-C04-04) y AMIC ENE2010-21384-C04-02. De hecho, y en el marco de estos proyectos, los resultados de este trabajo han ayudado a conseguir algunos de los hitos más importantes de la tecnología fotovoltaica en nuestro país en los últimos años, como fue en el marco de MICROSIL la fabricación del primer módulo de silicio amorfo con tecnología íntegramente española (hecho en colaboración con el CIEMAT), o la fabricación de los dispositivos para integración arquitectónica con geometrías libres que se describen en esta Tesis y que fueron parte de los desarrollos del proyecto INNDISOL. ABSTRACT This thesis focuses on the study of a sequence of laser-based technology and processes executed in photovoltaic devices, which are essential for the overall development of photovoltaic technologies based on thin film and, in particular, those using amorphous silicon as absorbent and subsequent applications of these technologies with high added value such as the architectural integration of such devices. In much of the PV thin film technologies, and particularly in the amorphous silicon material is deposited on a substrate in an area large enough so that it requires a process of subdivision of the device in cells of appropriate size, and subsequent serial connection to ensure nominal device power figures. This process has been industrially developed years ago, but there has been an associate scientific effort that would learn more about the effects that the processes themselves have either individually on the materials that make up the device and its final characteristics. This work, developed over years in the Laser Center of the UPM, in close collaboration with Centre for Energy and Environmental Research (CIEMAT), the University of Barcelona (UB) and the Polytechnic University of Catalonia (UPC)., Focuses precisely in a detailed study of these processes, usually they called P1, P2, P3 and P4 according to the order in which they perform on the device. This study includes both the parameters of the processes, the analysis of the effect they produce on the materials making up the device and its final photoelectric behavior as well as the potential use of EVALUATION of next-generation laser sources (ultrafast) versus standard industry today is the use of conventional laser sources temporal width in the range of nanoseconds. In particular we have studied in detail the advantages and limitations of using systems with different spectral ranges (IR, UV and VIS) and time (nanosecond and picosecond) for different configurations and technological provisions (meaning these typical configurations in substrate and superstrate such devices). Individual characterization of the processes was conducted primarily in laboratory cells specifically designed, opening new approaches and original concepts for improving laser interconnection processes and enabling the use and development of advanced techniques and characterization methods for studying the processes ablation in the different sheets making up the structure of the photovoltaic devices, so it is considered that this work has proposed a completely original methodology, which has proven effective in this area. Finally, the paper addresses a topic of particular interest, as is the possible use of lso developed processes, not to build the photovoltaic modules themselves but to customize fit and visual effects to enhance their use by integrated architectural elements, which is an area of great potential for future development of thin film photovoltaic technologies. Specifically studies manufacture of integrated architecturally and fully functional not only in amorphous silicon devices with transparency effects and generating freeform devices occur, if not also include the ability to make such devices with cells of standard crystalline silicon photovoltaic technology is more visible in the market. It is also important to note that the completion of this work has been possible thanks to the financing obtained with two applied research projects, Microsil (PSE-120000- 2008-1) and INNDISOL (IPT-420000-2019-6), and those for the National R & D funded by the Ministry of Science and Innovation and the Ministry of Economy and Competitiveness: CLASSIC (ENE 2007-67742-C04-04) and AMIC ENE2010-21384-C04- 02. In fact, within the framework of these projects, the results of this work have helped get some of the most important milestones of photovoltaic technology in our country in recent years, as it was under Microsil making the first module Amorphous silicon technology with entirely Spanish (made in collaboration with CIEMAT), or the manufacture of devices for architectural integration with free geometries that are described in this thesis and that were part of the project Inndisol developments.
Resumo:
This brief communication concerns the unsteady aerodynamic external pressure loads acting on a semi-circular bluff body lying on a floor under wind gusts and describes the theoretical model, experimental setup, and experimental results obtained. The experimental setup is based on an open circuit, closed test section, low speed wind tunnel, which includes a sinusoidal gust generating mechanism, designed and built at the Instituto de Microgravedad “Ignacio Da Riva” of the Universidad Politécnica de Madrid (IDR/UPM). Based on the potential flow theory, a theoretical model has been proposed to analyse the problem, and experimental tests have been performed to study the unsteady aerodynamic loads on a semi-circular bluff body. By fitting the theoretical model predictions with the experimental results, influencing parameters of the unsteady aerodynamic loads are ascertained. The values of these parameters can help in clarifying the phenomenon of the external pressure loads on semi-circular bluff body under various gust frequencies. The theoretical model proposed allows the pressure variation to be split into two contributions, a quasi-steady term and an unsteady term with a simple physical meaning
Resumo:
El presente trabajo denominado “Modelo simplificado de neumático de automóvil en elementos finitos para análisis transitorio de las estructuras de los vehículos” ha sido elaborado en la cátedra de Transportes de la Escuela Técnica Superior de Ingenieros Industriales de la Universidad Politécnica de Madrid. Su principal objetivo es el modelado y estudio de un neumático mediante el programa de elementos finitos Ansys, con el fin de obtener datos fiables acerca de su comportamiento bajo distintas situaciones. Para ello, en primer lugar se han estudiado los distintos componentes que conforman los neumáticos, poniendo especial énfasis en los materiales, que son de vital importancia para el desarrollo del trabajo. Posteriormente, se ha analizado el fundamento matemático que subyace en los programas comerciales de elementos finitos, adquiriendo una mayor seguridad en el uso de éstos, así como un mejor conocimiento de las limitaciones que presentan. Básicamente, el método matemático de los elementos finitos (MEF) consiste en la discretización de problemas continuos para resolver problemas complejos, algo que por los métodos tradicionales sería inabordable con ese grado de precisión debido a la cantidad de variables manejadas. Es ampliamente utilizado hoy en día, y cada vez más, para resolver problemas de distintas disciplinas de la ingeniería como la Mecánica del Sólido, la Mecánica de Fluidos o el Electromagnetismo. Por otro lado, como los neumáticos son un sistema complejo, el estudio de su comportamiento ha supuesto y supone un desafío importante tanto para los propios fabricantes, como para las marcas de vehículos y, en el ámbito de este proyecto, para el equipo Upm Racing. En este Trabajo Fin de Grado se han investigado los distintos modelos de neumático que existen, los cuales según su fundamento matemático pueden ser clasificados en: - Modelos analíticos - Modelos empíricos - Modelos de elementos finitos Con la intención de desarrollar un modelo novedoso de elementos finitos, se ha puesto especial hincapié en conocer las distintas posibilidades para el modelizado de neumáticos, revisando una gran cantidad de publicaciones llevadas a cabo en los ámbitos académico y empresarial. Después de toda esta fase introductoria y de recogida de información se ha procedido a la realización del modelo. Éste tiene tres fases claramente diferenciadas que son: - Pre-procesado - Solución - Post-procesado La fase de pre-procesado comprende toda la caracterización del modelo real al modelo matemático. Para ello es necesario definir los materiales, la estructura de los refuerzos, la presión del aire, la llanta o las propiedades del contacto neumático-suelo. Además se lleva a cabo el mallado del modelo, que es la discretización de dicho modelo para después ser resuelto por los algoritmos del programa. Este mallado es sumamente importante puesto que en problemas altamente no-lineales como éste, una malla no adecuada puede dar lugar a conflictos en la resolución de los sistemas de ecuaciones, originando errores en la resolución. Otro aspecto que se ha de incluir en esta fase es la definición de las condiciones de contorno, que son aquellas condiciones impuestas al sistema que definen el estado inicial del éste. Un ejemplo en resolución de estructuras podría ser la imposición de giros y desplazamientos nulos en el extremo de una viga encontrarse empotrado en este punto. La siguiente fase es la de solución del modelo. En ella se aplican las cargas que se desean al sistema. Las principales que se han llevado a cabo han sido: desplazamientos del eje del neumático, rodadura del neumático con aceleración constante y rodadura del neumático con velocidad constante. La última fase es la de post-procesado. En esta etapa se analizan los resultados proporcionados por la resolución con el fin de obtener los datos de comportamiento del neumático que se deseen. Se han estudiado principalmente tres variables que se consideran de suma importancia: - Rigidez radial estática - Características de la huella de contacto - Coeficiente de resistencia a la rodadura Seguidamente, se presentan las conclusiones generales de estos resultados, reflexionando sobre los valores obtenidos, así como sobre los problemas surgidos durante la realización del trabajo. Además, se realiza una valoración de los impactos que puede suponer a nivel económico, social y medioambiental. Por último, se ha elaborado la planificación y presupuesto del proyecto para plasmar los tiempos de trabajo y sus costos. Además, se han propuesto líneas futuras con las que avanzar y/o completar este trabajo.
Resumo:
En la actualidad se está desarrollando la electrónica para el diseño de sistemas de conversión de potencia de alta frecuencia, que reduce notablemente el peso y el ruido de los dispositivos convertidores y aumenta a su vez la densidad de potencia sin afectar negativamente al rendimiento, coste o fiabilidad de dichos dispositivos. La disciplina que se encarga de investigar y crear estos sistemas es la electrónica de potencia. Este documento recoge la metodología empleada para el diseño, análisis y simulación de un convertidor DC/DC de 10 kW de aplicación aeronáutica. Este dispositivo forma parte de un proyecto en el que colaboran el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI - UPM) y las empresas Indra y Airbus. Su objetivo es el diseño y construcción de un rectificador trifásico que proporcione una salida continua de 28 V y 10 kW de potencia. Durante su aplicación final, se dispondrá de dos dispositivos idénticos al diseñado en este proyecto, aportando cada uno de ellos 5 kW, sin embargo, debido a la importancia en seguridad en las aplicaciones aeronáuticas, cada rectificador debe ser capaz de aportar 10 kW de potencia en caso de fallo en uno de ellos. En primer lugar, este trabajo explica el diseño elegido para dicho convertidor, que sigue una topología Dual Active Bridge (DAB), en creciente interés para el desarrollo de dispositivos de potencia en alta frecuencia por sus mejoras en eficiencia y densidad de potencia. Esta topología consiste en dos puentes completos de dispositivos de conmutación, en este caso MOSFET, con un transformador entre medias diseñado para proporcionar la tensión de salida deseada. La topología ha sido modificada para satisfacer especificaciones del proyecto y cumplir las expectativas del diseño preliminar, que se centra en la transición suave de corriente en el transformador, siendo clave el diseño de un filtro resonante en serie con el transformador que proporciona una corriente senoidal con valor nulo en los instantes de conmutación de los MOSFET. Una vez introducida la topología, el siguiente capítulo se centra en el procedimiento de selección de componentes internos del convertidor: destacando el análisis de condensadores y MOSFET. Para su selección, se han estudiado las exigencias eléctricas en los puntos en los que estarán instalados, conociendo así las tensiones y corrientes que deberán soportar. Para asegurar un diseño seguro, los componentes han sido seleccionados de forma que durante su funcionamiento se les exija como máximo el 70% de sus capacidades eléctricas y físicas. Además, a partir de los datos aportados por los fabricantes ha sido posible estimar las pérdidas durante su funcionamiento. Este proyecto tiene un enfoque de aplicación aeronáutica, lo que exige un diseño robusto y seguro, que debe garantizar una detección rápida de fallos, de modo que sea capaz de aislar la anomalía de forma eficaz y no se propague a otros componentes del dispositivo. Para asegurarlo, se ha realizado la selección de sensores de tensión y corriente, que permiten la detección de fallos y la monitorización del convertidor. Al final de este apartado se muestra el esquema de alimentación, se analiza el consumo de los MOSFET y los sensores y se recopilan las pérdidas estimadas por los componentes internos del convertidor. Una vez terminado el diseño y selección de componentes, se muestran las simulaciones realizadas para prever el comportamiento del convertidor. Se presenta el modelo construido y las modificaciones instaladas para las diferentes simulaciones. Se destacan el diseño del regulador que introduce la entrada de corriente del convertidor para analizar su arranque, la construcción de una máquina de estados para analizar la detección de tensiones y corrientes fuera del intervalo correspondiente del correcto funcionamiento, y el modelo de MOSFET para simular los fallos posibles en estos dispositivos. También se analiza la influencia de la oscilación de la carga en los valores de tensión y en la resonancia del convertidor. Tras la simulación del equipo se describen las pruebas realizadas en los componentes magnéticos construidos dentro del periodo de elaboración de este trabajo: el transformador y la bobina externa, diseñada para mejorar el filtro resonante. La etapa final de este trabajo se ha centrado en la elaboración de un código de generación de señales PWM que controlen el funcionamiento de los MOSFET. Para esto se ha programado una tarjeta de control del procesador digital de señales (DSP)Delfino (TMS320F28335) instalado en una placa de experimentación (TMS320C2000), desarrollado por la empresa Texas Instruments, que facilita el acceso a los terminales GPIO y ADC del DSP durante el desarrollo del código, anexo a este documento.
Resumo:
Este trabajo forma parte del proyecto “Health aware enhanced range wireless power transfer systems”, conocido por el acrónimo de ETHER. Los grupos investigadores que forman parte de ETHER involucran a dos instituciones, Universidad Politécnica de Cataluña (UPC) y Universidad Politécnica de Madrid (UPM). En este caso, el trabajo ha sido llevado a cabo en el marco del Centro de Electrónica Industrial(CEI) de la UPM. Además, este trabajo es el tercero en una sucesión de estudios realizados por el CEI con el objetivo de lograr implementar un sistema de carga inalámbrica en un marcapasos. Los trabajos previos al desarrollado son los realizados por Miguel Gifford y María Gonzalez. Otros trabajos del CEI han servido de guía. El principal objetivo de la aplicación, es evitar las operaciones que se llevan a cabo actualmente para la sustitución de la batería de los marcapasos implantados en pacientes. Este periodo de sustitución es del orden de cuatro años, lo que depende del tipo de marcapasos y las circunstancias en las que se vea envuelto el paciente. Se pretende lograr la carga del dispositivo causando la menor molestia posible al paciente sin afectar a su salud. El sistema de carga inalámrica o WPT1, está basado en inducción magnética resonante, conocida como RIC2. Esta tecnología se fundamenta en el uso de bobinas acopladas como elemento transmisor de energía. A su vez, la impedancia de estas bobinas, es compensada mediante el uso de condensadores, obteniendo circuitos resonantes. Mediante el uso de RIC se logran mejores características técnicas para la transmisión de energía en el rango medio. Esto permite salvar la distancia entre el elemento generador y la batería del marcapasos, incluso ante la existencia de tejido orgánico entre las dos bobinas. Se han considerado dos posibilidades de configuraci´on del sistema. Dos etapas: se dispone de dos bobinas, emisora y receptora. Esta configuración supone trabajar a altas frecuencias para conseguir transferencia de energías efectivas teniendo en cuenta las especificaciones del marcapasos. Tres etapas: se dispone de tres bobinas, emisora, intermedia y receptora. Se mejora el alcance, permitiendo trabajar a menores frecuencias, pero complicando el control y la implementación del sistema. Sin embargo, el foco de los esfuerzos invertidos en este trabajo, es el estudio del sistema de optimización que se introduce en las configuraciones anteriormente descritas. La optimización se centra en conseguir máxima transferencia de potencia, quedando relegado a un segundo plano el rendimiento. Esto se justifica por las características de la aplicación donde la principal limitación es la viabilidad del sistema. Asímismo, la viabilidad viene impuesta por la potencia que consume el marcapasos y la que es capaz de suministrar el sistema. Este sistema de optimización se basa en la regulación en frecuencia y en la adaptación de la impedancia de carga. Este último método es estudiado, y se basa en lograr una impedancia de carga igual al complejo conjugado de la impedancia de salida, logrando máxima transferencia de potencia. El sistema de optimización hace uso de varias estructuras de control de electrónica de potencia. Inversor: Se sitúa en la etapa emisora y permite controlar la frecuencia de trabajo del sistema. Rectificador activo: Se sitúa en la etapa receptora y controla el desfase entre intensidad y tensión. Convertidor CC-CC: Se sitúa en la etapa receptora, tras el rectificador. Controla la amplitud de la tensión.Mediante el uso conjunto del rectificador y el convertidor es posible controlar la impedancia de la carga. Se ha realizado un análisis teórico para determinar el punto de funcionamiento óptimo del sistema, y posteriormente, se han validado estos resultados mediante simulaciones. Se demuestra que la potencia transferida por el sistema WTP se multiplica por cinco respecto de la solución original, es decir, en ausencia del sistema de optimización. Además se logra mayor robustez, ya que el control activo del sistema proporciona mayor adaptabilidad ante condiciones alejadas de las de diseño. El trabajo realizado se ha prolongado durante un periodo de doscientos días efectivos con una dedicación de 360 horas de trabajo. El coste total asignado al desempeño del trabajo es de 16.678,94 euros.
Resumo:
En esta tesis se desarrolla un modelo físico-matemático, original, que permite simular el comportamiento de las máquinas de visión, en particular las máquinas ópticas digitales, cuando reciben información a través de la luz reflejada por los mensurandos. El modelo desarrollado se lia aplicado para la determinación de los parámetros que intervienen en el proceso de caracterización de formas geométricas básicas, tales como líneas, círculos y elipses. También se analizan las fuentes de error que intervienen a lo largo de la cadena metrológica y se proponen modelos de estimación de las incertidumbres de medida a través un nuevo enfoque basado en estadística bayesiana y resolución subpíxel. La validez del modelo se ha comprobado por comparación de los resultados teóricos, obtenidos a partir de modelos virtuales y simulaciones informáticas, y los reales, obtenidos mediante la realización de medidas de diferentes mensurandos del ámbito electromecánico y de dimensiones submilimétricas. Utilizando el modelo propuesto, es posible caracterizar adecuadamente mensurandos a partir del filtrado, segmentación y tratamiento matemático de las imágenes. El estudio experimental y validación definitiva de los resultados se ha realizado en el Laboratorio de Metrología Dimensional de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la Universidad Politécnica de Madrid. Los modelos desarrollados se han implementado sobre imágenes obtenidas con la máquina de visión marca TESA, modelo VISIO 300. Abstract In this PhD Thesis an original mathematic-physic model has been developed. It allows simulating the behaviour of the vision measuring machines, in particular the optical digital machines, where they receive information through the light reflected by the measurands. The developed model has been applied to determine the parameters involved in the process of characterization of basic geometrical features such as lines, circles and ellipses. The error sources involved along the metrological chain also are analyzed and new models for estimating measurement uncertainties through a new approach based on Bayesian statistics and subpixel resolution are proposed. The validity of the model has been verified by comparing the theoretical results obtained from virtual models and computer simulations, with actual ones, obtained by measuring of various measurands belonging to the electromechanical field and of submillimeter dimensions. Using the proposed model, it is possible to properly characterize measurands from filtering, segmentation and mathematical processing of images. The experimental study and final validation of the results has been carried out in the "Laboratorio de Metrología Dimensional" (Dimensional Metrology Laboratory) at the Escuela Técnica Superior de Ingeniería y Diseño Industrial (ETSIDI) (School of Engineering and Industrial Design) at Universidad Politécnica de Madrid (UPM). The developed models have been implemented on images obtained with the vision measuring machine of the brand TESA, model VISIO 300.
Resumo:
La Expresión Corporal como materia educativa tiene su origen en España, de forma ligada a la Educación Física y su desarrollo en el ámbito universitario, durante la segunda mitad del siglo XX. Pero su corpus teórico no se encuentra definitivamente asentado, dando lugar a diferentes interpretaciones y consideraciones sobre cuáles deben ser considerados contenidos propios de la materia y sobre cómo deben ser estructurados. La presente tesis tiene por objeto de estudio precisamente los contenidos de la Expresión Corporal como materia perteneciente a las Ciencias de la Actividad Física y del Deporte, tratando de dar una respuesta fundamentada al planteamiento anterior. Para lo cual se seleccionaron y analizaron las principales obras de referencia para la materia en base a las cuales establecer una estructura de bloques de contenido y categorías asociadas. Se analizó la oferta formativa que, desde las universidades públicas españolas, se realizaba sobre el título de licenciado en Ciencias de la Actividad Física y del Deporte, comprobando por una parte la heterogeneidad en el tratamiento dado y por otra su adecuación a la estructura generada. Y en tercer lugar se examinó la normativa que articula y desarrolla el tratamiento de la Expresión Corporal en la Ley Orgánica de Educación, concretando el análisis en la etapa de Secundaria, en un proceso de triangulación sobre las fuentes documentales de mayor influencia, constatando una aparente falta de estructura en la selección y planteamiento de los contenidos a desarrollar dentro de la asignatura de Educación Física. En base a estas investigaciones, a la propia experiencia docente del doctorando y a la contribución de diferentes expertos en la materia se desarrolla una propuesta estructurada de contenidos de Expresión Corporal, la cual es implementada en el título de grado en Ciencias de la Actividad Física y del Deporte ofertado por la Universidad Politécnica de Madrid, analizando finalmente el nivel de relevancia que perciben los alumnos respecto de los contenidos de la materia planteados, infiriendo de los resultados obtenidos que se produce un aprendizaje significativo por parte de los futuros titulados. Se organizó la investigación en torno a cinco fases, utilizando en las tres primeras como metodología principal en análisis de contenido de las principales fuentes documentales (obras de referencia, programas docentes universitarios y normativa educativa), la cual es apoyada por otras herramientas como el grupo de discusión. La cuarta fase consistente en la elaboración de una propuesta estructurada de contenidos, contó con la valoración de un grupo de expertos en la materia. Mientras que en la fase de implementación y evaluación se recurrió al formato de entrevista colectiva mediante el empleo de cuestionario auto cumplimentado. La principal contribución de este trabajo es por tanto la presentación de una propuesta de estructuración de contenidos en Expresión Corporal, como parte de las manifestaciones básicas de la motricidad humana y enmarcada en el ámbito de las Ciencias de la Actividad Física y del Deporte; que tiene respaldo en las obras de referencia de la materia, en la formación inicial de los licenciados en Ciencias de la Actividad Física y del Deporte y en el desarrollo normativo de la Ley Orgánica de Educación; y que ha sido implementada en el actual título de Grado en Ciencias de la Actividad Física y del Deporte de la Universidad Politécnica de Madrid con resultados satisfactorios. ABSTRACT Corporal Expression as an educational subject has it origin s in Spain, linked to physical education and its development at University context, during the second half of the twentieth century. But his academic corpus has not been definitively settled, leading to different interpretations and considerations about what should be considered as proper contents of subject and how they should be structured. This thesis aims to study precisely the contents of the Corporal Expression as a subject belonging to Sciences of Physical Activity and Sport, trying to give a reasoned response to the previous approach. Taking this objective into consideration, main reference works were selected and analyzed to set a content structure and associated categories. The training offer of Spanish public universities in the Science of Physical Activity and Sport degree was analyzed, checking on the one hand the heterogeneity in the treatment and on the other their suitability to the structure generated. Thirdly, normative related to the treatment of Corporal Expression in the Ley Orgánica de Educación was examined paying special attention to the Secondary School stage. The process of triangulation which was performed using the most influential documentary sources suggested an apparent lack of structure and approach in the selection of contents to be developed in the subject of Physical Education. Based on these investigations, on the own teaching experience of the candidate and on the contribution of various experts in the field, a structured proposal of Corporal Expression contents is offered. This proposal has been implemented in the bachelor's degree in Sports Science offered by the Technical University of Madrid. Level of importance of the implemented contents perceived by students was analyzed and results suggested the presence of meaningful learning among graduates. Research was split into five phases. In the first three phases content analysis of the main documentary sources (reference books, university programs and educational standards), which was supported by other tools like the discussion group was the principal methodology. The fourth phase consisted in the development of a proposal structured content, involving the assessment of a group of experts in the field. In the implementation and evaluation phase collective interview using self-completed questionnaire was conducted The main contribution of this work is therefore presenting a proposal for structuring content in Corporal Expression, as a part of the basic manifestations of human motorskill and framed in the field of Sciences of Physical Activity and Sport; which draws on the support of reference works, initial training of graduates in Science of Physical Activity and Sport and the development of the normative of the Ley Orgánica de Educación; and has been implemented in the current Degree in Sports Science of the Technical University of Madrid with satisfactory results.
Resumo:
El tratamiento superficial por ondas de choque generadas por láser, LSP, es una técnica cuyo principal objetivo es el de la modificación del estado tensional de las primeras micras en profundidad de materiales metálicos. En sus comienzos está técnica fue empleada para inducir tensiones residuales de compresión en superficie, pero mientras se avanzaba en su desarrollo se empezaron a observar otros efectos. Profundizando en ellos se llega a la conclusión de que existe una fuerte relación entre todos, pero dependiendo de la aplicación a la que se vea sometido un componente tratado con LSP será necesario una serie de características que bien pueden ser ajustadas “a priori”. Para ello se ha de tener una buena caracterización del proceso láser y de las modificaciones que produce en las propiedades de un material determinado. Y es en este punto donde surge el problema: las modificaciones introducidas por el tratamiento láser son dependientes de la interacción de la energía del pulso láser con el material, es decir, para cada material es necesaria una caracterización previa de cómo sus propiedades son modificadas con las diferentes configuraciones del tratamiento LSP, encontrando para cada material un óptimo en los parámetros láser. En esta Tesis se pretende desarrollar una metodología para evaluar las modificaciones en las propiedades mecánicas y superficiales inducidas en materiales metálicos debido al tratamiento superficial por ondas de choque. De esta manera y avanzando de una manera lógica con la línea de investigación del grupo, se ha querido aplicar todo el conocimiento adquirido de la técnica para desarrollar esa metodología sobre un caso práctico: el empleo de dos configuraciones de tratamiento LSP sobre el acero inoxidable AISI 316L. Estas dos configuraciones elegidas se hacen en base a estudios previos, por parte del grupo de investigación, donde se han optimizados los parámetros para obtener el óptimo en lo que a perfil de tensiones residuales en profundidad se refiere. El material elegido como caso característico para llevar acabo la evaluación integrada del tratamiento LSP, de acuerdo con el propósito de esta Tesis, ha sido el acero inoxidable AISI 316L, debido a que este tipo de acero tiene una excelente resistencia a la corrosión en un amplio rango de atmosferas corrosivas, y es conocido como el grado estándar para un importante número de aplicaciones tecnológicas. La resistencia a la oxidación es buena incluso a altas temperaturas de servicio y la soldabilidad es excelente. Los aceros austeníticos son empleados en aplicaciones que soportan condiciones de alta temperatura y medios altamente corrosivos, como en reactores nucleares. Estos aceros resisten la corrosión en el agua de un reactor y procesos químicos en plantas que operan a temperaturas superiores a los 900 ˚C. En concreto el acero 316L se utiliza en la industria de equipamiento alimentario, en ambientes donde haya presencia de cloruros, en aplicaciones farmacéuticas, en la industria naval, en arquitectura, sector energético, centrales nucleares y en implantes médicos. Es decir, es un material ampliamente implantado en la industria, tanto en industrias tradicionales, como en industrias emergentes como la biomédica. El objetivo marcado para el desarrollo de la presente Tesis es caracterizar de forma precisa cómo el tratamiento superficial por ondas de choque generadas por láser es capaz de mejorar las propiedades de los materiales y cómo de estables son estas con la temperatura. Este punto es importante puesto que a la hora de introducir el proceso LSP en la industria no solo se tiene que tener en cuenta que las propiedades del material sean mejoradas, sino que también es necesario comprobar si esas mejoras se mantienen después de ser sometido el material a un tratamiento térmico ya que las condiciones de servicio de los materiales y componentes empleados no tienen por qué trabajar a temperatura ambiente. Para lograr el objetivo mencionado, el trabajo experimental realizado en la aleación seleccionada bajo todas las condiciones a estudio (material según fue recibido de fábrica, tratado con las dos configuraciones LSP y después de haber sido sometido al tratamiento térmico) ha consistido en lo siguiente: i) Estudios microestructural, morfológico y de composición química. ii) Medida de las tensiones residuales introducidas. iii) Caracterización superficial del material. iv) Estudio de las propiedades mecánicas: ensayos de tracción, ensayos de dureza, cálculo de la densidad de dislocaciones y ensayos de fatiga. v) Caracterización tribológica: ensayos de fricción y cálculo de la tasa de desgaste y volumen eliminado. vi) Caracterización electro-química para el material base y tratado con las dos configuraciones LSP. Se realizan medidas a circuito abierto, curvas de polarización (OCP), ensayos potenciostáticos y espectroscopia de impedancia electroquímica (EIS). El trabajo se ha llevado a cabo en los laboratorios del Centro Láser de la Universidad Politécnica de Madrid.
Resumo:
The Universidad Politécnica de Madrid participates in the MINISAT 01 program as the experiment CPLM responsible. This experiment aims at the study of the fluid behaviour in reduced gravity conditions. The interest of this study is and has been widely recognised by the scientific community and has potential applications in the pharmaceutical and microelectronic technologies (crystal growth), among others. The scientific team which has developed the CPLM experiment has a wide experience in this field and had participate in the performance of a large number of experiments on the fluid behaviour in reduced gravity conditions in flight (Spacelab missions, TEXUS sounding rockets, KC-135 and Caravelle aeroplanes, drop towers, as well as on earth labs (neutralbuoyancy and small scale simulations). The experimental equipment used in CPLMis a version of the payload developed for experimentation on drop towers and on board microsatellites as the UPM-Sat 1, adapted to fly on board MINISAT 01.
Resumo:
El objetivo principal de crear un espacio web para el Museo Histórico de la Informática (MHI) perteneciente a la Escuela Técnica Superior de Ingenieros Informáticos (ETSIINF) de la Universidad Politécnica de Madrid (UPM) es la difusión de la historia de la informática entre el público en general. Si bien es cierto que existe ya una página web de consulta del MHI con algunas imágenes y contenido sobre los objetos que allí se exhiben, es también reseñable que se trata de un espacio obsoleto, lleno de carencias y extremadamente difícil de gestionar y actualizar, por lo que se hacía imprescindible actualizar el diseño del espacio web, los contenidos y el sistema de gestión de los mismos, cosa que es de gran interés para un lugar divulgativo. En la actualidad, existen maneras mucho más amigables para el usuario de navegar por una web; y de la misma manera para un administrador, gestionar el contenido de la misma y mantener a los usuarios bien informados de todo lo que se ofrece en cada momento. Esto es posible gracias a los sistemas de gestión de contenidos o content management system (CMS), de los que se hablará lo largo de todo el documento. Estos sistemas, dan una facilidad mucho mayor a los encargados de llevar al día una página web, sin tener que saber de programación, lenguajes o informática en general, ya que incorporan paneles de control muy intuitivos y fáciles de manejar, que son una ventaja tanto para ellos como para los usuarios. Es por esta razón que, hay páginas web como la de las empresas IKEA, Ubuntu o, en especial para el caso que compete al documento, el museo del Louvre usan gestores de contenidos para sus páginas web. Y es que las ventajas y facilidades que ofrece un CMS son realmente interesantes y se tratará de todas ellas en el documento, de la elección del CMS que mejor se ajusta a los requisitos del museo, las restricciones a la hora del despliegue en el ámbito de la ETSIINF y de cómo mejorará esto la calidad visual y divulgativa del MHI. Este trabajo se desarrolla a lo largo de 11 capítulos, en los que se muestra como construir un sitio web, las posibilidades y la elección final para este caso. En el primer capítulo se hace una pequeña introducción de lo que es el proyecto, se especifican los objetivos, la motivación del mismo y el alcance que tiene. En el segundo capítulo se muestra la información que se ha recopilado en el trabajo de investigación que se hace previo al desarrollo. En él se muestran los distintos tipos de páginas web, que tecnologías y lenguajes se pueden usar para su construcción, una comparativa sobre otras entidades similares al MHI, las limitaciones que presenta el entorno y la elección final que se consideró más adecuada para este caso. En el capítulo tres se empieza a desarrollar la solución a través del diseño. Aquí se puede encontrar el diseño de más bajo nivel que se le presenta al cliente para sentar las bases del trabajo, el diseño de alto nivel con un mayor grado de realidad que el anterior y una preparación de lo que serán los planes de prueba. El capítulo cuatro muestra todo lo que se ha usado en la implementación y la integración de la página web: herramientas, tecnologías, plantillas de diseño y módulos que proporcionan distintas funcionalidades. Llegados al capítulo cinco, se puede ver una detallada documentación de los resultados de las pruebas de usabilidad y accesibilidad realizadas, y las conclusiones que subyacen de estas. Una vez acabada la implementación del sitio web del MHI, en el capítulo seis se intenta hacer una labor de consultoría, mostrando precios y presupuestos de las distintas tareas que se han llevado a cabo para la realización de este proyecto. En el capítulo siete se extraen las conclusiones de todo lo acontecido en los capítulos anteriores y en el ocho unas líneas sobre posibles trabajos futuros que se podrían llevar a cabo en base a lo que ya se tiene en la institución, incluido este trabajo. Para facilitar la comprensión y satisfacer la curiosidad del lector, se ha incluido en el capítulo nueve la bibliografía con toda la documentación consultada y en el diez un glosario de términos para la aclaración de términos y acrónimos más técnicos. Para acabar, en el capítulo once se anexionan tanto el documento que se usó para las pruebas de usabilidad como un manual de administrador para el sitio web, que hace más amigable el entorno para las personas que lo tengan que mantener en un futuro.---ABSTRACT---The main goal of creating a website for the Informatics Historical Museum (“Museo Histórico de la Informática” or MHI) located in the Higher Technical School of Informatics Engineers (“Escuela Técnica Superior de Ingenieros Informáticos” or ETSIINF) of the Polytechnic University of Madrid (“Universidad Politécnica de Madrid” UPM), is to promote the aforementioned museum as to increase its reach to the public. While it is true that there already is a consulting website with some pictures and information about the items which are displayed in the building, it is outdated and the data is scarce. Moreover, it is extremely complicated to manage and to regularly update the web page, which is very important for informative/broadcasting media. Currently, there are easier ways for the users of a website to consult whatever information they want, as well as it is now easy for a website manager to display new content and to keep the users informed about what is been offered at every moment. This is possible because of content management systems (CMS), which will be discussed throughout the entire paper. These systems make it easier to use for the administrator of a website to keep it up to date without the necessity for them of having any knowledge or skills in programming, languages or computing, because the systems have an intuitive control panel that is easy to use, which is an advantage for both managers and users. Because of all these reasons, there are lots of companies that use this kind of systems, such as IKEA, Ubuntu or, especially, the Louvre Museum, to which we direct our attention all throughout this report. It is easy to notice that these systems have an important and very interesting number of perks and benefits. In the next chapters of the document we will explain the benefits of the program as well as the choice on the kind of CMS that best suits the requirements of the museum and, finally, the restrictions of the school for the deployment and of how all of this will improve the visual and informational qualities of the MHI. This work is developed over 11 chapters, shown how to build up a website, the possibilities and the final choice for this case. In the first chapter a brief introduction of the project, goals, motivation and scope thereof having specified are done. Before the development of the website, the second chapter shows de information of the researching work. It discusses the different types of websites, technologies and languages that can be used for build-up, a comparison of similar entities to MHI, the limitations of the environment and the final choice was considered more appropriate for this case. Chapter three begins to develop the design of the solution. Here there are the lowest level design that presents the customer to fix any problem, the high level design with a higher degree of reality than the last and the test plans. Chapter four shows everything that has been used in the implementation and integration of the website: tools, technologies, design templates and modules that provide different functionalities. Reaching the fifth chapter, you can see a detailed documentation of the results of the usability and accessibility tests made to some users and the conclusions of it. Once the implementation of MHI website is done, in chapter six there is a consultancy work, showing prices and budgets of the different tasks which were carried out for this project. In chapter seven there are the conclusions of what happened in the previous chapters and eight chapter shows possible future works that could be carried out based on what the institution already have, including this work. To make easier to the reader understand this paper and satisfy his curiosity, the chapter nine includes the bibliography consulted with all the documentation and chapter ten has a glossary of terms and an explanation of technical terms and acronyms. Finally, in chapter eleven there are attached both the document that was used for usability testing as a manual administrator for the website, making the environment friendlier for people who have to maintain it in the future.
Resumo:
La presente tesis para optar al grado de Doctor en la Escuela Técnica Superior de Arquitectura de la Universidad Politécnica de Madrid, aborda la obra del arquitecto de origen español Juan Martínez Gutiérrez, reconocido por la crítica especializada como uno de los precursores de la arquitectura moderna en Chile. A pesar de la relevancia de su obra, en la actualidad se carece de un estudio sistematizado y preciso que, de manera global, expongan los factores de modernidad de sus principales edificios, aun cuando han aparecido en los últimos años dos publicaciones referentes al arquitecto y parcialmente a su obra. Formado tanto en arquitectura como en pintura, la labor profesional de Juan Martínez Gutiérrez se inscribió en un contexto de modernización de la sociedad chilena entre la década del 20 y del 50, adjudicándose mediante concurso público, el diseño de cinco edificios institucionales y de carácter público, los que conforman en la actualidad bienes de carácter patrimonial estando dos de ellos declarados Monumento Histórico. Se desenvolvió también en el ámbito de la docencia siendo profesor de la Facultad de Arquitectura y Urbanismo de la Universidad de Chile por más de 35 años y Decano de la misma institución. Participó asimismo de la vida gremial de la profesión, recibiendo en el año 1969 el primer premio nacional de arquitectura. Sus edificios públicos, se han mantenido en uso siendo hitos urbanos y en el ámbito disciplinar reconocidas obras ejemplares. Sin embargo, al comenzar el siglo XXI, cuando la modernidad se nos presenta desde la historicidad, surge la pregunta por los valores que sustenta la arquitectura de Juan Martínez, en relación a su tiempo y a la actualidad. En este ámbito reflexivo se plantea la puesta en tesis de la presente investigación, donde las principales obras del arquitecto se analizan inquiriendo su condición de modernidad a la luz de un contexto local cuyas problemáticas sociales son aunadas por el proyecto desarrollista estatal de la primera mitad del siglo XX; interpelando algunos aspectos del estado técnico del país durante el periodo; las tendencias estéticas imperantes de la época y el entorno urbano en el que se emplazan. Al mismo tiempo, el desarrollo de la tesis examina un tópico referencial de la modernidad latinoamericana, que es el influjo europeo en el punto de inflexión que va desde el fin del modelo academicista y la incorporación de los preceptos de un funcionalismo y racionalismo arquitectónico, todo ello mediado por los condicionantes locales. ABSTRACT The following thesis, to achieve the Doctor´s degree at the Superior Technical School of Architecture of the Polytechnic University of Madrid aboard the work of the chilean architect of spanish origin Juan Martinez Gutierrez, recognized by specialized critic as one of the forefathers of modern architecture in Chile. Although the relevance of his work, currently there is no systematic and precise study of it. A study that in a global view exposes the factors of modernity in his foremost buildings. The absence of such study is, despite the appearance in the last two years of two publications about the architect and –partially- his work. Formed as much in architecture as in painting, the professional labor of Juan Martinez Gutierrez was inscribed in the context of Chilean society modernization, between the decades of the 20´s and 30´s. Awarding himself, by means of architectural contests, the design of institutional buildings of public use, witch conform current cultural goods, two of them having been declared National Monuments; a category of cultural heritage officially protected by the state. He also developed an important academic work, being for more than 35 years, professor at the Faculty of Architecture and Urbanism at the University of Chile and in his time, Faculty Dean. He also participated, actively, in guild life, being awarded in 1969 the first ever, National Prize of Architecture. His public buildings, still in use, are urban landmarks and exemplar works in a disciplinary dimension. Never the less, at the begins of the XXI century, when the modern movement is presented to us from an historical viewpoint, even from historicity, questions surge about the values that sustain Juan Martinez´s architecture in relation to his time and ours. It is in this reflexive field, that is planted the thesis of the present research, where the principal works of the architect are analyzed inquiring their modern condition, at the light of a local context who´s social problems join the chilean social development state the “Estado Desarrolista” of the first half of the XX century, a situation that interpellants several dimensions: the technical status of the country during the period, the aesthetic tendencies prevailing, and the urban context were they place themselves. At the same time, in its development, the thesis examines a referential topic, that is the Latin American modern movement, or the European influx in that inflexion point that goes from the end of academicism Beaux – Art model and the incorporation of functional and rationalist precepts, all mediated by local conditions.