46 resultados para thread rolling
Resumo:
El viento, como factor medio-ambiental, ha sido objeto de numerosos estudios por los efectos que induce tanto en vehículos como en estructuras. Dentro del ámbito ferroviario, las cargas aerodinámicas debidas a la acción del viento transversal pueden poner en compromiso la seguridad de los vehículos en circulación, pudiendo llegar a ocasionar el vuelco del mismo. Incluso el sistema de cables encargado de realizar el suministro eléctrico necesario para la tracción del tren, conocido como catenaria, es sensible a la acción del viento. De hecho, al igual que ocurre en ciertas estructuras de cables, la interacción entre las fuerzas aerodinámicas no estacionarias y la catenaria puede ocasionar la aparición de oscilaciones de gran amplitud debido al fenómeno de galope. Una forma sencilla de reducir los efectos no deseados de la acción del viento, es la instalación de barreras cortavientos aguas arriba de la zona que se desea proteger. La instalación de estos dispositivos, reduce la velocidad en la estela generada, pero también modifica las propiedades del flujo dentro de la misma. Esta alteración de las condiciones del flujo puede contribuir a la aparición del fenómeno de galope en estructuras caracterizadas por su gran flexibilidad, como la catenaria ferroviaria. Estos dos efectos contrapuestos hacen evidente la importancia de mantener cierta visión global del efecto introducido por la instalación de barreras cortavientos en la plataforma ferroviaria. A lo largo de este documento, se evalúa desde un enfoque multidisciplinar el efecto inducido por las barreras cortavientos en varios subsistemas ferroviarios. Por un lado se analizan las mejoras en la estabilidad lateral del vehículo mediante una serie de ensayos en túnel de viento. La medición de la distribución de presiones en la superficie de un modelo bidimensional de vehículo ferroviario proporciona una buena estimación del nivel de protección que se consigue en función de la altura de una barrera cortavientos. Por otra parte, se analiza la influencia del mismo juego de barreras cortavientos en las características del flujo situado sobre la plataforma ferroviaria, mediante la utilización de anemometría de hilo caliente (HWA) y velocimetría de imágenes de párticulas (PIV). En particular se centra la atención en las características en la posición correspondiente a los hilos conductores de la catenaria. En la última parte del documento, se realiza un análisis simplificado de la aparición oscilaciones en la catenaria, por el efecto de la inestabilidad de galope. La información obtenida sobre las características del flujo se combinan con las propiedades aerodinámicas del hilo de contacto, obtenidas en mediante una serie de ensayos en túnel de viento. De esta manera se realiza una evaluación del riesgo a la aparición de este tipo de inestabilidad aeroeslástica aplicada a una catenaria ferroviaria situada sobre un viaducto tipo. ABSTRACT Wind as an environmental factor may induce undesirable effects on vehicles and structures. The analysis of those effects has caught the attention of several researchers. Concerning the railway system, cross-wind induces aerodynamic loads on rolling stock that may increase the overturning risk of the vehicle, threatening its safe operation. Even the cable system responsible to provide the electric current required for the train traction, known as the railway overhead or catenary, is sensitive to the wind action. In fact, the interaction between the unsteady aerodynamic forces and the railway overhead may trigger the development of undamped oscillations due to galloping phenomena. The inclusion of windbreaks upstream the area that needs wind protection is a simple mean to palliate the undesirable effects caused by the wind action. Although the presence of this wind protection devices reduces the wind speed downstream, they also modify the flow properties inside their wake. This modification on the flow characteristics may ease the apparition of the galloping phenomena on flexible structures, such as the railway overhead. This two opposite effects require to maintain a global perspective on the analysis of the influence of the windbreak presence. In the present document, a multidisciplinary analysis on the effect induced by windbreaks on several railways subsystems is conducted. On the one hand, a set of wind tunnel tests is conducted to assess the improvement on the rolling stock lateral stability. The qualitative estimation of the shelter effect, as function of the windbreak height, is established through the pressure distribution measured on the surface of a two-dimensional train model. On the other hand, the flow properties above the railway platform are assessed using the same set of windbreaks. Two experimental techniques are used to measure the flow properties, hot-wire anemometry (HWA) and particle image velocimetry (PIV). In particular, the attention is focused on the flow characteristics on the contact wire location. A simplified analysis on the catenary oscillations due to galloping phenomena is conducted in the last part of the document. Both, the flow characterization performed via PIV and the aerodynamic properties of the contact wire cross-section are combined. In this manner, the risk of the aeroelastic instabilities on a railway overhead placed on a railway bridge is assessed through a practical application.
Resumo:
El sector ferroviario ha experimentado en los últimos años un empuje espectacular acaparando las mayores inversiones en construcción de nuevas líneas de alta velocidad. Junto a esta inversión inicial no se debe perder de vista el coste de mantenimiento y gestión de las mismas y para ello es necesario avanzar en el conocimiento de los fenómenos de interacción de la vía y el material móvil. En los nuevos trazados ferroviarios, que hacen del ferrocarril un modo de transporte competitivo, se produce un notable aumento en la velocidad directamente relacionado con la disminución de los tiempos de viaje, provocando por ello elevados esfuerzos dinámicos, lo que exige una elevada calidad de vía para evitar el rápido deterioro de la infraestructura. Resulta primordial controlar y minimizar los costes de mantenimiento que vienen generados por las operaciones de conservación de los parámetros de calidad y seguridad de la vía férrea. Para reducir las cargas dinámicas que actúan sobre la vía deteriorando el estado de la misma, debido a este aumento progresivo de las velocidades, es necesario reducir la rigidez vertical de la vía, pero igualmente este aumento de velocidades hace necesarias elevadas resistecias del emparrillado de vía y mejoras en las plataformas, por lo que es necesario buscar este punto de equilibrio en la elasticidad de la vía y sus componentes. Se analizan las aceleraciones verticales medidas en caja de grasa, identificando la rigidez vertical de la vía a partir de las frecuencias de vibración vertical de las masas no suspendidas, correlacionándola con la infraestructura. Estas aceleraciones verticales se desprenden de dos campañas de medidas llevadas a cabo en la zona de estudio. En estas campañas se colocaron varios acelerómetros en caja de grasa obteniendo un registro de aceleraciones verticales a partir de las cuales se ha obteniendo la variación de la rigidez de vía de unas zonas a otras. Se analiza la rigidez de la vía correlacionándola con las distintas tipologías de vía y viendo la variación del valor de la rigidez a lo largo del trazado ferroviario. Estos cambios se manifiestan cuando se producen cambios en la infraestructura, de obras de tierra a obras de fábrica, ya sean viaductos o túneles. El objeto principal de este trabajo es profundizar en estos cambios de rigidez vertical que se producen, analizando su origen y las causas que los provocan, modelizando el comportamiento de los mismos, para desarrollar metodologías de análisis en cuanto al diseño de la infraestructura. Igualmente se analizan los elementos integrantes de la misma, ahondando en las características intrínsecas de la rigidez vertical global y la rigidez de cada uno de los elementos constituyentes de la sección tipo ferroviaria, en cada una de las secciones características del tramo en estudio. Se determina en este trabajo si se produce y en qué medida, variación longitudinal de la rigidez de vía en el tramo estudiado, en cada una de las secciones características de obra de tierra y obra de fábrica seleccionadas analizando las tendencias de estos cambios y su homogeneidad a lo largo del trazado. Se establece así una nueva metodología para la determinación de la rigidez vertical de la vía a partir de las mediciones de aceleraciones verticales en caja de grasa así como el desarrollo de una aplicación en el entorno de Labview para el análisis de los registros obtenidos. During the last years the railway sector has experienced a spectacular growth, focusing investments in the construction of new high-speed lines. Apart from the first investment the cost of maintaining and managing them has to be considered and this requires more knowledge of the process of interaction between track and rolling stock vehicles. In the new high-speed lines, that make of the railway a competitive mode of transport, there is a significant increase in speed directly related to the shorten in travel time, and that produces high dynamic forces. So, this requires a high quality of the track to avoid quickly deterioration of infrastructure. It is essential to control and minimize maintenance costs generated by maintenance operations to keep the quality and safety parameters of the railway track. Due to this gradual increase of speed, and to reduce the dynamic loads acting on the railway track causing its deterioration, it is necessary to reduce the vertical stiffness of the track, but on the other hand this speed increase requires high resistance of the railway track and improvements of the railway platform, so we must find the balance between the elasticity of the track and its components. Vertical accelerations in axle box are measured and analyzed, identifying the vertical stiffness of the railway track obtained from the vertical vibration frequency of the unsprung masses, correlating with the infrastructure. These vertical accelerations are the result of two measurement campaigns carried out in the study area with the placement of several accelerometers located in the axle box. From these vertical accelerations the variation of the vertical stiffness from one area to another is obtained. The track stiffness is analysed relating with the different types of infrastructure and the change in the value of the stiffness along the railway line. These changes are revealed when changes in infrastructure occurs, for instance; earthworks to bridges or tunnels. The main purpose of this paper is to examine these vertical stiffness changes, analysing its origins and causes, modelling their behaviour, developing analytical methodologies for the design of infrastructure. In this thesis it is also reviewed the different elements of the superstructure, paying special attention to the vertical stiffness of each one. In this study is determined, if it happens and to what extent, the longitudinal variation in the stiffness of track along the railway line studied in every selected section; earthwork, bridges and tunnels. They are also analyzed trends of these changes and homogeneity along the path. This establishes a new method for determining the vertical stiffness of the railway track from the vertical accelerations measured on axle box as well as an application developed in LabView to analyze the recordings obtained.
Resumo:
Cyber-Physical Systems need to handle increasingly complex tasks, which additionally, may have variable operating conditions over time. Therefore, dynamic resource management to adapt the system to different needs is required. In this paper, a new bus-based architecture, called ARTICo3, which by means of Dynamic Partial Reconfiguration, allows the replication of hardware tasks to support module redundancy, multi-thread operation or dual-rail solutions for enhanced side-channel attack protection is presented. A configuration-aware data transaction unit permits data dispatching to more than one module in parallel, or provide coalesced data dispatching among different units to maximize the advantages of burst transactions. The selection of a given configuration is application independent but context-aware, which may be achieved by the combination of a multi-thread model similar to the CUDA kernel model specification, combined with a dynamic thread/task/kernel scheduler. A multi-kernel application for face recognition is used as an application example to show one scenario of the ARTICo3 architecture.
Resumo:
El wolframio (W) y sus aleaciones se consideran los mejores candidatos para la construcción del divertor en la nueva generación de reactores de fusión nuclear. Este componente va a recibir las cargas térmicas más elevadas durante el funcionamiento del reactor ya que estará en contacto directo con el plasma. En los últimos años, después de un profundo análisis y siguiendo una estrategia de reducción de costes, la Organización de ITER tomó la decisión de construir el divertor integramente de wolframio desde el principio. Por ello, el wolframio no sólo actuará como material en contacto con el plasma (PFM), sino que también tendría aplicaciones estructurales. El wolframio, debido a sus excelentes propiedades termo-físicas, cumple todos los requerimientos para ser utilizado como PFM, sin embargo, su inherente fragilidad pone en peligro su uso estructural. Por tanto, uno de los principales objetivos de esta tesis es encontrar una aleación de wolframio con menor fragilidad. Durante éste trabajo, se realizó la caracterización microstructural y mecánica de diferentes materiales basados en wolframio. Sin embargo, ésta tarea es un reto debido a la pequeña cantidad de material suministrado, su reducido tamaño de grano y fragilidad. Por ello, para una correcta medida de todas las propiedades físicas y mecánicas se utilizaron diversas técnicas experimentales. Algunas de ellas se emplean habitualmente como la nanoindentación o los ensayos de flexión en tres puntos (TPB). Sin embargo, otras fueron especificamente desarrolladas e implementadas durante el desarrollo de esta tesis como es el caso de la medida real de la tenacidad de fractura en los materiales masivos, o de las medidas in situ de la tenacidad de fractura en las láminas delgadas de wolframio. Diversas composiciones de aleaciones de wolframio masivas (W-1% Y2O3, W-2% V-0.5% Y2O3, W-4% V-0.5% Y2O3, W-2% Ti-1% La2O3 y W-4% Ti-1% La2O3) se han estudiado y comparado con un wolframio puro producido en las mismas condiciones. Estas aleaciones, producidas por ruta pulvimetalúrgica de aleado mecánico (MA) y compactación isostática en caliente (HIP), fueron microstructural y mecánicamente caracterizadas desde 77 hasta 1473 K en aire y en alto vacío. Entre otras propiedades físicas y mecánicas se midieron la dureza, el módulo elástico, la resistencia a flexión y la tenacidad de fractura para todas las aleaciones. Finalmente se analizaron las superficies de fractura después de los ensayos de TPB para relacionar los micromecanismos de fallo con el comportamiento macroscópico a rotura. Los resultados obtenidos mostraron un comportamiento mecánico frágil en casi todo el intervalo de temperaturas y para casi todas las aleaciones sin mejoría de la temperatura de transición dúctil-frágil (DBTT). Con el fin de encontrar un material base wolframio con una DBTT más baja se realizó también un estudio, aún preliminar, de láminas delgadas de wolframio puro y wolframio dopado con 0.005wt.% potasio (K). Éstas láminas fueron fabricadas industrialmente mediante sinterizado y laminación en caliente y en frío y se sometieron posteriormente a un tratamiento térmico de recocido desde 1073 hasta 2673 K. Se ha analizado la evolución de su microestructura y las propiedades mecánicas al aumentar la temperatura de recocido. Los resultados mostraron la estabilización de los granos de wolframio con el incremento de la temperatura de recocido en las láminas delgadas de wolframio dopado con potasio. Sin embargo, es necesario realizar estudios adicionales para entender mejor la microstructura y algunas propiedades mecánicas de estos materiales, como la tenacidad de fractura. Tungsten (W) and tungsten-based alloys are considered to be the best candidate materials for fabricating the divertor in the next-generation nuclear fusion reactors. This component will experience the highest thermal loads during the operation of a reactor since it directly faces the plasma. In recent years, after thorough analysis that followed a strategy of cost reduction, the ITER Organization decided to built a full-tunsgten divertor before the first nuclear campaigns. Therefore, tungsten will be used not only as a plasma-facing material (PFM) but also in structural applications. Tungsten, due to its the excellent thermo-physical properties fulfils the requirements of a PFM, however, its use in structural applications is compromised due to its inherent brittleness. One of the objectives of this phD thesis is therefore, to find a material with improved brittleness behaviour. The microstructural and mechanical characterisation of different tunsgten-based materials was performed. However, this is a challenging task because of the reduced laboratory-scale size of the specimens provided, their _ne microstructure and their brittleness. Consequently, many techniques are required to ensure an accurate measurement of all the mechanical and physical properties. Some of the applied methods have been widely used such as nanoindentation or three-point bending (TPB) tests. However, other methods were specifically developed and implemented during this work such as the measurement of the real fracture toughness of bulk-tunsgten alloys or the in situ fracture toughness measurements of very thin tungsten foils. Bulk-tunsgten materials with different compositions (W-1% Y2O3, W-2% V- 0.5% Y2O3, W-4% V-0.5% Y2O3, W-2% Ti-1% La2O3 and W-4% Ti-1% La2O3) were studied and compared with pure tungsten processed under the same conditions. These alloys, produced by a powder metallurgical route of mechanical alloying (MA) and hot isostatic pressing (HIP), were microstructural and mechanically characterised from 77 to 1473 K in air and under high vacuum conditions. Hardness, elastic modulus, flexural strength and fracture toughness for all of the alloys were measured in addition to other physical and mechanical properties. Finally, the fracture surfaces after the TPB tests were analysed to correlate the micromechanisms of failure with the macroscopic behaviour. The results reveal brittle mechanical behaviour in almost the entire temperature range for the alloys and micromechanisms of failure with no improvement in the ductile-brittle transition temperature (DBTT). To continue the search of a tungsten material with lowered DBTT, a preliminary study of pure tunsgten and 0.005 wt.% potassium (K)-doped tungsten foils was also performed. These foils were industrially produced by sintering and hot and cold rolling. After that, they were annealed from 1073 to 2673 K to analyse the evolution of the microstructural and mechanical properties with increasing annealing temperature. The results revealed the stabilisation of the tungsten grains with increasing annealing temperature in the potassium-doped tungsten foil. However, additional studies need to be performed to gain a better understanding of the microstructure and mechanical properties of these materials such as fracture toughness.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
The paper provides a method applicable for the determination of flight loads for maneuvering aircraft, in which aerodynamic loads are calculated based on doublet lattice method, which contains three primary steps. Firstly, non-dimensional stability and control derivative coefficients are obtained through solving unsteady aerodynamics in subsonic flow based on a doublet lattice technical. These stability and control derivative coefficients are used in second step. Secondly, the simulation of aircraft dynamic maneuvers is completed utilizing fourth order Runge-Kutta method to solve motion equations in different maneuvers to gain response parameters of aircraft due to the motion of control surfaces. Finally, the response results calculated in the second step are introduced to the calculation of aerodynamic loads. Thus, total loads and loads distribution on different components of aircraft are obtained. According to the above method, abrupt pitching maneuvers, rolling maneuvers and yawing maneuvers are investigated respectively.
Resumo:
En esta tesis se investiga la interacción entre un fluido viscoso y un cuerpo sólido en presencia de una superficie libre. El problema se expresa teóricamente poniendo especial atención a los aspectos de conservación de energía y de la interacción del fluido con el cuerpo. El problema se considera 2D y monofásico, y un desarrollo matemático permite una descomposición de los términos disipativos en términos relacionados con la superficie libre y términos relacionados con la enstrofía. El modelo numérico utilizado en la tesis se basa en el método sin malla Smoothed Particle Hydrodynamics (SPH). De manera análoga a lo que se hace a nivel continuo, las propiedades de conservación se estudian en la tesis con el sistema discreto de partículas. Se tratan también las condiciones de contorno de un cuerpo que se mueve en un flujo viscoso, implementadas con el método ghost-fluid. Se ha desarrollado un algoritmo explícito de interacción fluido / cuerpo. Se han documentado algunos casos de modo detallado con el objetivo de comprobar la capacidad del modelo para reproducir correctamente la disipación de energía y el movimiento del cuerpo. En particular se ha investigado la atenuación de una onda estacionaria, comparando la simulación numérica con predicciones teóricas. Se han realizado otras pruebas para monitorizar la disipación de energía para flujos más violentos que implican la fragmentación de la superficie libre. La cantidad de energía disipada con los diferentes términos se ha evaluado en los casos estudiados con el modelo numérico. Se han realizado otras pruebas numéricas para verificar la técnica de modelización de la interacción fluido / cuerpo, concretamente las fuerzas ejercidas por las olas en cuerpos con formas simples, y el equilibrio de un cuerpo flotante con una forma compleja. Una vez que el modelo numérico ha sido validado, se han realizado simulaciones numéricas para obtener una comprensión más completa de la física implicada en casos (casi) realistas sobre los había aspectos que no se conocían suficientemente. En primer lugar se ha estudiado el el flujo alrededor de un cilindro bajo la superficie libre. El estudio se ha realizado con un número de Reynolds moderado, para un rango de inmersiones del cilindro y números de Froude. La solución numérica permite una investigación de los patrones complejos que se producen. La estela del cilindro interactúa con la superficie libre. Se han identificado algunos inestabilidades características. El segundo estudio se ha realizado sobre el problema de sloshing, tanto experimentalmente como numéricamente. El análisis se restringe a aguas poco profundas y con oscilación horizontal, pero se ha estudiado un gran número de condiciones, lo que lleva a una comprensión bastante completa de los sistemas de onda involucradas. La última parte de la tesis trata también sobre un problema de sloshing pero esta vez el tanque está oscilando con rotación y hay acoplamiento con un sistema mecánico. El sistema se llama pendulum-TLD (Tuned Liquid Damper - con líquido amortiguador). Este tipo de sistema se utiliza normalmente para la amortiguación de las estructuras civiles. El análisis se ha realizado analíticamente, numéricamente y experimentalmente utilizando líquidos con viscosidades diferentes, centrándose en características no lineales y mecanismos de disipación. ABSTRA C T The subject of the present thesis is the interaction between a viscous fluid and a solid body in the presence of a free surface. The problem is expressed first theoretically with a particular focus on the energy conservation and the fluid-body interaction. The problem is considered 2D and monophasic, and some mathematical development allows for a decomposition of the energy dissipation into terms related to the Free Surface and others related to the enstrophy. The numerical model used on the thesis is based on Smoothed Particle Hydrodynamics (SPH): a computational method that works by dividing the fluid into particles. Analogously to what is done at continuum level, the conservation properties are studied on the discrete system of particles. Additionally the boundary conditions for a moving body in a viscous flow are treated and discussed using the ghost-fluid method. An explicit algorithm for handling fluid-body coupling is also developed. Following these theoretical developments on the numerical model, some test cases are devised in order to test the ability of the model to correctly reproduce the energy dissipation and the motion of the body. The attenuation of a standing wave is used to compare what is numerically simulated to what is theoretically predicted. Further tests are done in order to monitor the energy dissipation in case of more violent flows involving the fragmentation of the free-surface. The amount of energy dissipated with the different terms is assessed with the numerical model. Other numerical tests are performed in order to test the fluid/body interaction method: forces exerted by waves on simple shapes, and equilibrium of a floating body with a complex shape. Once the numerical model has been validated, numerical tests are performed in order to get a more complete understanding of the physics involved in (almost) realistic cases. First a study is performed on the flow passing a cylinder under the free surface. The study is performed at moderate Reynolds numbers, for various cylinder submergences, and various Froude numbers. The capacity of the numerical solver allows for an investigation of the complex patterns which occur. The wake from the cylinder interacts with the free surface, and some characteristical flow mechanisms are identified. The second study is done on the sloshing problem, both experimentally and numerically. The analysis is restrained to shallow water and horizontal excitation, but a large number of conditions are studied, leading to quite a complete understanding of the wave systems involved. The last part of the thesis still involves a sloshing problem but this time the tank is rolling and there is coupling with a mechanical system. The system is named pendulum-TLD (Tuned Liquid Damper). This kind of system is normally used for damping of civil structures. The analysis is then performed analytically, numerically and experimentally for using liquids with different viscosities, focusing on non-linear features and dissipation mechanisms.
Resumo:
Invariantes del pensamiento en los arquitectos de Madrid. Primera década del siglo XXI. Una historia de transmisión oral es una Tesis Doctoral que parte de la elaboración de un archivo documental inédito, archivo que aglutina los testimonios de los más importantes arquitectos de Madrid presentes durante los primeros diez años del siglo XXI. Estos testimonios se recogen ordenadamente a modo de conversaciones transcritas, reflexiones puntuales y audios. La incorporación de los audios al trabajo documental permite comprobar a futuros investigadores, de manera directa, la certeza de las conclusiones o, incluso, establecer interpretaciones distintas. Los documentos sonoros son el germen de este trabajo. La Tesis Doctoral ordena e interpreta los testimonios en su apartado de ANÁLISIS/ DESARROLLO permitiendo entender a través de constantes demostraciones un hilo conductor del pensamiento en los arquitectos de Madrid. Se trata de una Tesis Doctoral que se entiende como un documento vivo, abierto y que gracias a su carácter inédito descubre matices y reflexiones de los arquitectos nunca antes recogidos en otros trabajos. Se ha conseguido reunir y ordenar por primera vez la voz y el pensamiento de los más importantes arquitectos de Madrid, muchos de ellos ya fallecidos. Se ha establecido un árbol genealógico ordenado y completo de los arquitectos de referencia indiscutibles desde el año 1939. Se ha conseguido reunir en un solo documento a los arquitectos y personajes más citados y recurrentes en el discurso de los arquitectos de Madrid, pudiendo constatar así sus referentes culturales más utilizados. Se ha descubierto y argumentado un pensamiento común dividido en cuatro conceptos: Oportunidad, Orden, Compromiso y Contención. Se produce una aproximación al arquitecto y a su pensamiento de la manera más natural y espontánea. Las grabaciones nos permitirán introducirnos, sin imposturas, no solo en el fondo, sino también en la forma de lo que se comunica, en el cómo. Una vez seleccionados los documentos sonoros más adecuados para el objetivo de este trabajo se ha procedido a su transcripción al papel. En este proceso se depura el lenguaje y se liman defectos de forma, al mismo tiempo se resumen las conversaciones y se recogen solo los comentarios más interesantes. En el proceso de transcripción, así como en la elección de las preguntas, existe una labor editorial, la aplicación de un criterio a la hora de seleccionar, resumir, corregir, completar, etc. Para abordar las conversaciones se ha recurrido a la bibliografía de referencia de cada uno de los arquitectos. Una vez transcritas las entrevistas, se establece una valoración crítica, una aproximación teórica al tema principal de la conversación. Bien puede tratarse de una reflexión sobre el arquitecto y su trabajo o sobre algunas de las opiniones o temas vertidos durante la charla. Para situar a cada uno de los arquitectos que se citan, se ha establecido un apartado genealógico completo donde cada uno se coloca en su lugar correspondiente conforme a sus apariciones en los textos principales de la historiografía reciente desde Carlos Flores hasta el año 2010. Esta Tesis Doctoral es un testigo de la diversidad de pensamientos y actitudes así como de las coincidencias. Las conversaciones mantenidas, las reflexiones y las opiniones vertidas al respecto han tocado reiteradamente muchos temas que aparecerán ordenados en el ANÁLISIS/DESARROLLO y en el apartado DESCRIPTORES. A partir de estos y otros temas genéricos, los pensamientos se aglutinan en torno a cuatro puntos que resumen las actitudes y los planteamientos conceptuales más recurrentes y coincidentes. Estos cuatro puntos definen de una manera concreta al arquitecto de Madrid. Oportunidad, Orden, Compromiso y Contención. Identidad generada a través de una historia de transmisión oral, desde los arquitectos de las primeras generaciones de posguerra hasta hoy. ABSTRACT Invariable thought in the architects of Madrid. First decade of the XXI century. A history of oral transmission is a Doctoral Thesis that starts with the development of a new documentary file, a file which brings together the testimonies of the most important architects of Madrid present during the first ten years of this century. These testimonies include conversations, punctual reflections and audio bites. Incorporating audio allows future researchers to check certain conclusions directly or even to have different interpretations. Sound bites are the seed of this work. This Doctoral Thesis orders and interprets the testimonies in the ANALYSIS / DEVELOPMENT section, through which a common thread of thought in Madrid architects can be ascertained. This doctoral thesis is meant as a living, open document, which, thanks to its unprecedented nature, discovers nuances and reflections of architects that had never been collected in previous studies. It has brought together and sorted for the first time the voice and thoughts of the most important architects of Madrid, many of them already deceased. It has established an orderly and comprehensive reference guide to the most important architects since 1939. It has brought together in one document the most cited and recurring architects and characters in the discourse of the architects of Madrid, which enables us to observe the cultural references they used the most. We have discovered and put forward a common thought divided into four concepts: Opportunity, Order, Commitment and Containment. The architect and his thoughts are revealed as naturally and spontaneously as possible. The recordings allow us to ascertain, without impositions, not only the substance but also the form of what is communicated. After selecting the most appropriate sound bites for the purpose of this work, we have proceeded to transcribe them to paper. In this process the language has been purified and formal defects have been dealt with, and at the same time the conversations have been summarized and only the most interesting comments have been kept. The transcription process and the choice of questions entails editorial work, applying a criterion when selecting, summarizing, amending, supplementing, etc. To address the conversations, the bibliographic reference of each of the architects has been used. Once the interviews have been transcribed, a critical appraisal and a theoretical approach to the main topic of conversation are established. It may be a reflection on the architect and his work or some of the views or issues discussed during the talk. In order to place each of the cited architects, a complete family tree has been devised in which each architect is situated according to his appearances in the main text of recent historiography, from Carlos Flores until 2010. This Doctoral Thesis is a witness to the diversity of thoughts, attitudes and coincidences. The conversations, reflections and opinions expressed in this regard have repeatedly touched many issues that will be sorted in the ANALYSIS/DEVELOPMENT and the KEYWORDS section. From these and other generic issues, thoughts coalesce around four points which summarize the attitudes and the most recurrent and similar conceptual approaches. These four points define the architect of Madrid in a concrete way. Opportunity, order, engagement and containment. An identity generated by a history of oral transmission, from the architects of the first post-war generations until today.
Resumo:
Esta investigación indaga sobre la relación entre el método geométrico empleado por Pablo Palazuelo y el proceso del proyecto arquitectónico. La elección de este pintor y escultor madrileño como hilo conductor de esta tesis no es fortuita, puesto que la arquitectura desempeña una influencia esencial sobre su obra. Un influjo que le llega en parte a través de su formación académica, dado que cursó estudios de arquitectura en la School of Arts and Crafts de la ciudad de Oxford (1933-1936). Así mismo diseñó propuestas estrechamente vinculadas a un lugar construido, con el consiguiente condicionante de las trazas del mismo. La hipótesis de trabajo formulada a partir de textos elaborados por autores como Víctor Nieto Alcaide y Juan Daniel Fullaondo sugería una interconexión con la arquitectura orgánica. Como comprobación del grado de profundidad en otros análisis publicados, se han seleccionado los textos que indagan en el proceso que el artista desarrollaba durante la producción de su obra, y se adentran en cuestiones estructurales que trascienden el ámbito formal. Siguiendo esta pauta, además de una acotación temporal, se han escogido los realizados por Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power y Carlos Rodríguez-Spiteri. A estos autores se suman las fuentes orales consultadas dentro de un entorno intrínsecamente próximo a sus realizaciones, procedentes de Pere Casanovas y Soledad Lorenzo. Además de personas que en diferentes etapas de su vida coincidieron por distintos motivos con sus realizaciones, como son Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri y Antonio Tornero. A partir del acceso obtenido a los escritos, libros, bocetos y abundante obra gráfica y escultórica que atesora la Fundación del pintor, se ha podido elaborar un andamiaje tanto teórico como geométrico que ha servido de base para confrontar estas premisas. Esta empresa se ha estructurado en una narración que, además de los estudios precedentes citados, comienza con los cimientos del pensamiento de Palazuelo. Elaborada a partir de sus escritos, donde defendía un sincretismo que concilia las visiones de las culturas occidental y oriental. En los siguientes apartados, se han analizado las principales obras gráficas y escultóricas del autor haciendo un especial hincapié en el método productivo. Una gestación que se resiste a una mera enumeración cronológica, por lo que la clasificación que se propone en este trabajo trata de ser lo más fiel posible al espíritu expresado por Palazuelo basado en linajes y coherencias, para desvelar las herramientas empleadas y poder compararlas con el proceso del proyectual. Este recorrido se completa con una última sección se reúnen por primera vez las dieciséis obras y los dieciséis proyectos más representativos que ilustran la aproximación más directa que obró Palazuelo entre sus investigaciones geométricas y un locus determinado. Durante casi cuatro años se desarrolló un inventariado y catalogación pormenorizada de la documentación y piezas sobre papel, lienzo y metal realizadas por Palazuelo. Esta indagación saca a la luz un conjunto constituido por casi cuatro mil obras, en su mayoría inéditas, que constituyen el archivo de la citada institución. En definitiva, esta investigación construye un tejido gráfico y geométrico referido a uno de los artistas españoles más importantes del siglo XX, entreverado por su pensamiento teórico y realizaciones en dibujos, maquetas, esculturas y propuestas arquitectónicas. Las cuales permiten establecer los acuerdos y desacuerdos con el proceso de la arquitectura para proponer una nueva aproximación geométrica interdisciplinar. ABSTRACT This research investigates the relationship between the geometric method used by Palazuelo and the architectural design’s process. Choosing this Spanish painter and sculptor as thread of this thesis is not fortuitous, since the architecture has an essential influence on his work. An influx that arrives in part through his academic training, as he was an architecture student at the School of Arts and Crafts of the city of Oxford (1933-1936). Furthermore his proposals designed closely linked to a built place, therefore conditioned by its traces. The working hypothesis formulated from texts written by authors like Victor Nieto Alcaide and Juan Daniel Fullaondo suggested an interconnection with organic architecture. As a check on the degree of depth in other published reviews, articles that explore the process that the artist developed during the production of his work, and penetrate into structural issues beyond formal domain have been selected. Following this pattern, along with a temporal dimension, assays by Santiago Amón, Carme Bonell, Valerio Bozal, Manuel J. Borja-Villel, Francisco Calvo Serraller, Claude Esteban, Julián Gállego, Teresa Grandas, Max Hölzer, George Limbour, Kevin Power and Carlos Rodriguez-Spiteri have been selected. Oral sources within an inherently environment close to his achievements, as Pere Casanovas and Soledad Lorenzo, are also added. In addition to people coincided with his accomplishments, such as Ramón Ayerza, Mariano Bayón, José Antonio Corrales, Luis Gordillo, Rafael Moneo, José Rodríguez-Spiteri and Antonio Tornero. From obtained access to the writings, books, sketches and abundant graphic and sculptural work that holds the Foundation painter, it has been able to develop a theoretical and geometric framework that have served as the basis for confronting these premises. This dissertation has been structured in a narrative that ⎯in addition to the previously mentioned studies⎯, begins with the foundations of Palazuelo thought. A structure built from his writings, where he defended a syncretism that reconciles the views of Western and Eastern cultures. In the following sections, his main graphic and sculptural works have been analyzed with particular emphasis on the productive method. A process that resists mere chronological enumeration, so the classification proposed in this investigation tries to be as faithful as possible to the spirit expressed by Palazuelo, based on bloodlines and coherences, to uncover the tools he used and to compare them with the architectural design process. This tour is completed with a final chapter that gathers the sixteen proposals and sixteen works most representative projects that illustrate the more direct approach that Palazuelo worked between geometric investigations and a given locus. For nearly four years, a detailed inventory and cataloguing of documents and works on paper, canvas and metal made by Palazuelo was developed. This research brings to light a set consisting of nearly four thousand works, mostly unpublished, that constitute the current archive of the aforementioned institution. Ultimately, this research builds a graph and geometric fabric referred to one of the most important Spanish artists of the twentieth century, interspersed by his theoretical thinking and achievements in drawings, models, sculptures and architectural proposals. Which allow establishing agreements and disagreements with the process of architecture to propose a new geometric interdisciplinary approach.
Resumo:
Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.
Resumo:
La capacidad de transporte es uno de los baremos fundamentales para evaluar la progresión que puede llegar a tener un área económica y social. Es un sector de elevada importancia para la sociedad actual. Englobado en los distintos tipos de transporte, uno de los medios de transporte que se encuentra más en alza en la actualidad, es el ferroviario. Tanto para movilidad de pasajeros como para mercancías, el tren se ha convertido en un medio de transporte muy útil. Se encuentra dentro de las ciudades, entre ciudades con un radio pequeño entre ellas e incluso cada vez más, gracias a la alta velocidad, entre ciudades con gran distancia entre ellas. Esta Tesis pretende ayudar en el diseño de una de las etapas más importantes de los Proyectos de instalación de un sistema ferroviario: el sistema eléctrico de tracción. La fase de diseño de un sistema eléctrico de tracción ferroviaria se enfrenta a muchas dudas que deben ser resueltas con precisión. Del éxito de esta fase dependerá la capacidad de afrontar las demandas de energía de la explotación ferroviaria. También se debe atender a los costes de instalación y de operación, tanto costes directos como indirectos. Con la Metodología que se presenta en esta Tesis se ofrecerá al diseñador la opción de manejar un sistema experto que como soluciones le plantee un conjunto de escenarios de sistemas eléctricos correctos, comprobados por resolución de modelos de ecuaciones. Correctos desde el punto de vista de validez de distintos parámetros eléctrico, como de costes presupuestarios e impacto de costes indirectos. Por tanto, el diseñador al haber hecho uso de esta Metodología, tendría en un espacio de tiempo relativamente corto, un conjunto de soluciones factibles con las que poder elegir cuál convendría más según sus intereses finales. Esta Tesis se ha desarrollado en una vía de investigación integrada dentro del Centro de Investigaciones Ferroviarias CITEF-UPM. Entre otros proyectos y vías de investigación, en CITEF se ha venido trabajando en estudios de validación y dimensionamiento de sistemas eléctricos ferroviarios con diversos y variados clientes y sistemas ferroviarios. A lo largo de los proyectos realizados, el interés siempre ha girado mayoritariamente sobre los siguientes parámetros del sistema eléctrico: - Calcular número y posición de subestaciones de tracción. Potencia de cada subestación. - Tipo de catenaria a lo largo del recorrido. Conductores que componen la catenaria. Características. - Calcular número y posición de autotransformadores para sistemas funcionando en alterna bitensión o 2x25kV. - Posición Zonas Neutras. - Validación según normativa de: o Caídas de tensión en la línea o Tensiones máximas en el retorno de la línea o Sobrecalentamiento de conductores o Sobrecalentamiento de los transformadores de las subestaciones de tracción La idea es que las soluciones aportadas por la Metodología sugieran escenarios donde de estos parámetros estén dentro de los límites que marca la normativa. Tener la posibilidad de tener un repositorio de posibles escenarios donde los parámetros y elementos eléctricos estén calculados como correctos, aporta un avance en tiempos y en pruebas, que mejoraría ostensiblemente el proceso habitual de diseño para los sistemas eléctricos ferroviarios. Los costes directos referidos a elementos como subestaciones de tracción, autotransformadores, zonas neutras, ocupan un gran volumen dentro del presupuesto de un sistema ferroviario. En esta Tesis se ha querido profundizar también en el efecto de los costes indirectos provocados en la instalación y operación de sistemas eléctricos. Aquellos derivados del impacto medioambiental, los costes que se generan al mantener los equipos eléctricos y la instalación de la catenaria, los costes que implican la conexión entre las subestaciones de tracción con la red general o de distribución y por último, los costes de instalación propios de cada elemento compondrían los costes indirectos que, según experiencia, se han pensado relevantes para ejercer un cierto control sobre ellos. La Metodología cubrirá la posibilidad de que los diseños eléctricos propuestos tengan en cuenta variaciones de coste inasumibles o directamente, proponer en igualdad de condiciones de parámetros eléctricos, los más baratos en función de los costes comentados. Analizando los costes directos e indirectos, se ha pensado dividir su impacto entre los que se computan en la instalación y los que suceden posteriormente, durante la operación de la línea ferroviaria. Estos costes normalmente suelen ser contrapuestos, cuánto mejor es uno peor suele ser el otro y viceversa, por lo que hace falta un sistema que trate ambos objetivos por separado. Para conseguir los objetivos comentados, se ha construido la Metodología sobre tres pilares básicos: - Simulador ferroviario Hamlet: Este simulador integra módulos para construir esquemas de vías ferroviarios completos; módulo de simulación mecánica y de la tracción de material rodante; módulo de señalización ferroviaria; módulo de sistema eléctrico. Software realizado en C++ y Matlab. - Análisis y estudio de cómo focalizar los distintos posibles escenarios eléctricos, para que puedan ser examinados rápidamente. Pico de demanda máxima de potencia por el tráfico ferroviario. - Algoritmos de optimización: A partir de un estudio de los posibles algoritmos adaptables a un sistema tan complejo como el que se plantea, se decidió que los algoritmos genéticos serían los elegidos. Se han escogido 3 algoritmos genéticos, permitiendo recabar información acerca del comportamiento y resultados de cada uno de ellos. Los elegidos por motivos de tiempos de respuesta, multiobjetividad, facilidad de adaptación y buena y amplia aplicación en proyectos de ingeniería fueron: NSGA-II, AMGA-II y ɛ-MOEA. - Diseño de funciones y modelo preparado para trabajar con los costes directos e indirectos y las restricciones básicas que los escenarios eléctricos no deberían violar. Estas restricciones vigilan el comportamiento eléctrico y la estabilidad presupuestaria. Las pruebas realizadas utilizando el sistema han tratado o bien de copiar situaciones que se puedan dar en la realidad o directamente sistemas y problemas reales. Esto ha proporcionado además de la posibilidad de validar la Metodología, también se ha posibilitado la comparación entre los algoritmos genéticos, comparar sistemas eléctricos escogidos con los reales y llegar a conclusiones muy satisfactorias. La Metodología sugiere una vía de trabajo muy interesante, tanto por los resultados ya obtenidos como por las oportunidades que puede llegar a crear con la evolución de la misma. Esta Tesis se ha desarrollado con esta idea, por lo que se espera pueda servir como otro factor para trabajar con la validación y diseño de sistemas eléctricos ferroviarios. ABSTRACT Transport capacity is one of the critical points to evaluate the progress than a specific social and economical area is able to reach. This is a sector of high significance for the actual society. Included inside the most common types of transport, one of the means of transport which is elevating its use nowadays is the railway. Such as for passenger transport of weight movements, the train is being consolidated like a very useful mean of transport. Railways are installed in many geography areas. Everyone know train in cities, or connecting cities inside a surrounding area or even more often, taking into account the high-speed, there are railways infrastructure between cities separated with a long distance. This Ph.D work aims to help in the process to design one of the most essential steps in Installation Projects belonging to a railway system: Power Supply System. Design step of the railway power supply, usually confronts to several doubts and uncertainties, which must be solved with high accuracy. Capacity to supply power to the railway traffic depends on the success of this step. On the other hand is very important to manage the direct and indirect costs derived from Installation and Operation. With the Methodology is presented in this Thesis, it will be offered to the designer the possibility to handle an expert system that finally will fill a set of possible solutions. These solutions must be ready to work properly in the railway system, and they were tested using complex equation models. This Thesis has been developed through a research way, integrated inside Citef (Railway Research Centre of Technical University of Madrid). Among other projects and research ways, in Citef has been working in several validation studies and dimensioning of railway power supplies. It is been working by a large range of clients and railways systems. Along the accomplished Projects, the main goal has been rounded mostly about the next list of parameters of the electrical system: - Calculating number and location of traction substations. Power of each substation. - Type of Overhead contact line or catenary through the railway line. The wires which set up the catenary. Main Characteristics. - Calculating number and position of autotransformers for systems working in alternating current bi-voltage of called 2x25 kV. - Location of Neutral Zones. - Validating upon regulation of: o Drop voltages along the line o Maximum return voltages in the line o Overheating/overcurrent of the wires of the catenary o Avoiding overheating in the transformers of the traction substations. Main objective is that the solutions given by the Methodology, could be suggest scenarios where all of these parameters from above, would be between the limits established in the regulation. Having the choice to achieve a repository of possible good scenarios, where the parameters and electrical elements will be assigned like ready to work, that gives a great advance in terms of times and avoiding several tests. All of this would improve evidently the regular railway electrical systems process design. Direct costs referred to elements like traction substations, autotransformers, neutral zones, usually take up a great volume inside the general budget in railway systems. In this Thesis has been thought to bear in mind another kind of costs related to railway systems, also called indirect costs. These could be enveloped by those enmarked during installation and operation of electrical systems. Those derived from environmental impact; costs generated during the maintenance of the electrical elements and catenary; costs involved in the connection between traction substations and general electric grid; finally costs linked with the own installation of the whole electrical elements needed for the correct performance of the railway system. These are integrated inside the set has been collected taking into account own experience and research works. They are relevant to be controlled for our Methodology, just in case for the designers of this type of systems. The Methodology will cover the possibility that the final proposed power supply systems will be hold non-acceptable variations of costs, comparing with initial expected budgets, or directly assuming a threshold of budget for electrical elements in actual scenario, and achieving the cheapest in terms of commented costs from above. Analyzing direct and indirect costs, has been thought to divide their impact between two main categories. First one will be inside the Installation and the other category will comply with the costs often happens during Railway Operation time. These costs normally are opposed, that means when one is better the other turn into worse, in costs meaning. For this reason is necessary treating both objectives separately, in order to evaluate correctly the impact of each one into the final system. The objectives detailed before build the Methodology under three basic pillars: - Railway simulator Hamlet: This software has modules to configure many railway type of lines; mechanical and traction module to simulate the movement of rolling stock; signaling module; power supply module. This software has been developed using C++ and Matlab R13a - Previously has been mandatory to study how would be possible to work properly with a great number of feasible electrical systems. The target comprised the quick examination of these set of scenarios in terms of time. This point is talking about Maximum power demand peaks by railway operation plans. - Optimization algorithms. A railway infrastructure is a very complex system. At the beginning it was necessary to search about techniques and optimization algorithms, which could be adaptable to this complex system. Finally three genetic multiobjective algorithms were the chosen. Final decision was taken attending to reasons such as time complexity, able to multiobjective, easy to integrate in our problem and with a large application in engineering tasks. They are: NSGA-II, AMGA-II and ɛ-MOEA. - Designing objectives functions and equation model ready to work with the direct and indirect costs. The basic restrictions are not able to avoid, like budgetary or electrical, connected hardly with the recommended performance of elements, catenary and safety in a electrical railway systems. The battery of tests launched to the Methodology has been designed to be as real as possible. In fact, due to our work in Citef and with real Projects, has been integrated and configured three real railway lines, in order to evaluate correctly the final results collected by the Methodology. Another topic of our tests has been the comparison between the performances of the three algorithms chosen. Final step has been the comparison again with different possible good solutions, it means power supply system designs, provided by the Methodology, testing the validity of them. Once this work has been finished, the conclusions have been very satisfactory. Therefore this Thesis suggest a very interesting way of research and work, in terms of the results obtained and for the future opportunities can be created with the evolution of this. This Thesis has been developed with this idea in mind, so is expected this work could adhere another factor to work in the difficult task of validation and design of railway power supply systems.
Resumo:
El objetivo principal de este proyecto ha sido introducir aprendizaje automático en la aplicación FleSe. FleSe es una aplicación web que permite realizar consultas borrosas sobre bases de datos nítidos. Para llevar a cabo esta función la aplicación utiliza unos criterios para definir los conceptos borrosos usados para llevar a cabo las consultas. FleSe además permite que el usuario cambie estas personalizaciones. Es aquí donde introduciremos el aprendizaje automático, de tal manera que los criterios por defecto cambien y aprendan en función de las personalizaciones que van realizando los usuarios. Los objetivos secundarios han sido familiarizarse con el desarrollo y diseño web, al igual que recordar y ampliar el conocimiento sobre lógica borrosa y el lenguaje de programación lógica Ciao-Prolog. A lo largo de la realización del proyecto y sobre todo después del estudio de los resultados se demuestra que la agrupación de los usuarios marca la diferencia con la última versión de la aplicación. Esto se basa en la siguiente idea, podemos usar un algoritmo de aprendizaje automático sobre las personalizaciones de los criterios de todos los usuarios, pero la gran diversidad de opiniones de los usuarios puede llevar al algoritmo a concluir criterios erróneos o no representativos. Para solucionar este problema agrupamos a los usuarios intentando que cada grupo tengan la misma opinión o mismo criterio sobre el concepto. Y después de haber realizado las agrupaciones usar el algoritmo de aprendizaje automático para precisar el criterio por defecto de cada grupo de usuarios. Como posibles mejoras para futuras versiones de la aplicación FleSe sería un mejor control y manejo del ejecutable plserver. Este archivo se encarga de permitir a la aplicación web usar el lenguaje de programación lógica Ciao-Prolog para llevar a cabo la lógica borrosa relacionada con las consultas. Uno de los problemas más importantes que ofrece plserver es que bloquea el hilo de ejecución al intentar cargar un archivo con errores y en caso de ocurrir repetidas veces bloquea todas las peticiones siguientes bloqueando la aplicación. Pensando en los usuarios y posibles clientes, sería también importante permitir que FleSe trabajase con bases de datos de SQL en vez de almacenar la base de datos en los archivos de Prolog. Otra posible mejora basarse en distintas características a la hora de agrupar los usuarios dependiendo de los conceptos borrosos que se van ha utilizar en las consultas. Con esto se conseguiría que para cada concepto borroso, se generasen distintos grupos de usuarios, los cuales tendrían opiniones distintas sobre el concepto en cuestión. Así se generarían criterios por defecto más precisos para cada usuario y cada concepto borroso.---ABSTRACT---The main objective of this project has been to introduce machine learning in the application FleSe. FleSe is a web application that makes fuzzy queries over databases with precise information, using defined criteria to define the fuzzy concepts used by the queries. The application allows the users to change and custom these criteria. On this point is where the machine learning would be introduced, so FleSe learn from every new user customization of the criteria in order to generate a new default value of it. The secondary objectives of this project were get familiar with web development and web design in order to understand the how the application works, as well as refresh and improve the knowledge about fuzzy logic and logic programing. During the realization of the project and after the study of the results, I realized that clustering the users in different groups makes the difference between this new version of the application and the previous. This conclusion follows the next idea, we can use an algorithm to introduce machine learning over the criteria that people have, but the problem is the diversity of opinions and judgements that exists, making impossible to generate a unique correct criteria for all the users. In order to solve this problem, before using the machine learning methods, we cluster the users in order to make groups that have the same opinion, and afterwards, use the machine learning methods to precise the default criteria of each users group. The future improvements that could be important for the next versions of FleSe will be to control better the behaviour of the plserver file, that cost many troubles at the beginning of this project and it also generate important errors in the previous version. The file plserver allows the web application to use Ciao-Prolog, a logic programming language that control and manage all the fuzzy logic. One of the main problems with plserver is that when the user uploads a file with errors, it will block the thread and when this happens multiple times it will start blocking all the requests. Oriented to the customer, would be important as well to allow FleSe to manage and work with SQL databases instead of store the data in the Prolog files. Another possible improvement would that the cluster algorithm would be based on different criteria depending on the fuzzy concepts that the selected Prolog file have. This will generate more meaningful clusters, and therefore, the default criteria offered to the users will be more precise.
Resumo:
Uno de los temas más importantes dentro del debate contemporáneo, es el que se refiere a la sostenibilidad a largo plazo de la sociedad tal y como la entendemos hoy. El ser humano está recuperando la sensibilidad perdida que le concebía como una pieza más dentro del ciclo natural de la vida. Por fin hemos entendido que no podemos ser auto suficientes e independientes del entorno natural que nos rodea. Más allá del respeto y del cuidado, está abierta la puerta del conocimiento infinito que nos brinda la naturaleza a todos los niveles y a todas las escalas. Dentro de la disciplina arquitectónica han existido ejemplos como Antoni Gaudí o Frei Otto que han referenciado su obra en el mundo Natural, encontrando en él las estrategias y bases para el diseño arquitectónico. Sin embargo han sido una minoría dentro del enorme elenco de arquitectos defensores del ángulo recto. En las últimas décadas, la tendencia está cambiando. No nos referimos tanto a la sensibilidad creciente por conseguir una mayor eficiencia energética que ha llevado a una puesta en valor de la arquitectura vernácula, trasladando su sabiduría a las estrategias bioclimáticas. Nos referimos a un caso específico dentro del amplio abanico de formas arquitectónicas que han aparecido gracias a la incorporación de las herramientas computacionales en el diseño y la producción. Las arquitecturas que nos interesan son las que aprovechan estas técnicas para analizar e interpretar las estrategias complejas y altamente eficientes que encontramos en la naturaleza, y trasladarlas a la disciplina arquitectónica. Esta tendencia que se enmarca dentro de la Biomímesis o Biomimética es conocida con el nombre de Bioarquitectura. La presente tesis trata de morfología y sobre todo de morfogénesis. El término morfología se refiere al estudio de una forma concreta que nos permite entender un caso específico, nuestro foco de atención se centra sin embargo en la morfogénesis, es decir, en el estudio de los procesos de generación de esas formas, para poder reproducir patrones y generar abanicos de casos adaptables y reconfigurables. El hecho de estudiar la forma no quiere decir que ésta sea una tesis “formalista” con la connotación peyorativa y gestual que se le suele atribuir a este término. La investigación concibe el concepto de forma como lo hace el mundo natural: forma como síntesis de eficiencia. No hay ninguna forma natural gratuita, que no cumpla una función determinada y que no se desarrolle con el mínimo material y gaste la mínima energía posible. Este afán por encontrar la “forma eficaz” es lo que nos hace traspasar la frontera de la arquitectura formalista. El camino de investigación morfológica se traza, como el título de la tesis indica, siguiendo el hilo conductor concreto de los radiolarios. Estos microorganismos unicelulares poseen unos esqueletos tan complejos que para poder entender su morfología es necesario establecer un amplio recorrido que abarca más de 4.000 años de conocimiento humano. Desde el descubrimiento de los sólidos platónicos, poliedros que configuran muchas de las formas globales de estos esqueletos; hasta la aplicación de los algoritmos generativos, que permiten entender y reproducir los patrones de comportamiento que existen detrás de los sistemas de compactación y teselación irregular de los esqueletos radiolarios. La tesis no pretende plantear el problema desde un punto de vista biológico, ni paleontológico, aunque inevitablemente en el primer capítulo se realiza un análisis referenciado del estado del conocimiento científico actual. Sí se analizan en mayor profundidad cuestiones morfológicas y se tratan los diferentes posicionamientos desde los cuales estos microorganismos han servido de referencia en la disciplina arquitectónica. Además encontramos necesario analizar otros patrones naturales que comparten estrategias generativas con los esqueletos radiolarios. Como ya hemos apuntado, en el segundo capítulo se aborda un recorrido desde las geometrías más básicas a las más complejas, que tienen relación con las estrategias de generación de las formas detectadas en los microorganismos. A su vez, el análisis de estas geometrías se intercala con ejemplos de aplicaciones dentro de la arquitectura, el diseño y el arte. Finalizando con un cronograma que sintetiza y relaciona las tres vías de investigación abordadas: natural, geométrica y arquitectónica. Tras los dos capítulos centrales, el capítulo final recapitula las estrategias analizadas y aplica el conocimiento adquirido en la tesis, mediante la realización de diferentes prototipos que abarcan desde el dibujo analítico tradicional, a la fabricación digital y el diseño paramétrico, pasando por modelos analógicos de escayola, barras metálicas, resina, silicona, látex, etc. ABSTRACT One of the most important issues in the contemporary debate, is the one concerning the long-term sustainability of society as we understand it today. The human being is recovering the lost sensitivity that conceived us as part of the natural cycle of life. We have finally understood that we cannot be self-sufficient and independent of the natural environment which surrounds us. Beyond respect and care, we’ll find that the gateway to the infinite knowledge that nature provides us at all levels and at all scales is open. Within the architectural discipline, there have been remarkable examples such as Antoni Gaudí or Frei Otto who have inspired their work in the natural world. Both, found in nature the strategies and basis of their architectural designs. However, they have been a minority within the huge cast of architects defenders of the right angle. In recent decades, the trend is changing. We are not referring to the growing sensitivity in trying to achieve energy efficiency that has led to an enhancement of vernacular architecture, transferring its wisdom to bioclimatic strategies. We refer to a specific case within the wide range of architectural forms that have appeared thanks to the integration of computer tools in both design and production processes. We are interested in architectures that exploit these techniques to analyse and interpret the complex and highly efficient strategies found in nature, and shift them to the discipline of architecture. This trend, which is being implemented in the framework of the Biomimicry or biomimetics, is called Bioarchitecture. This thesis deals with morphology and more specifically with morphogenesis. Morphology is the study of a concrete form that allows us to understand a specific case. However, our focus is centered in morphogenesis or, in other words, the study of the processes of generation of these forms, in order to replicate patterns and generate a range of adaptable and reconfigurable cases. The fact of studying shapes does not mean that this is a “formalistic” thesis with the pejorative connotation that is often attributed to this term. This study conceives the concept of shape as Nature does: as a synthesis of efficiency. There is no meaningless form in nature. Furthermore, forms and shapes in nature play a particular role and are developed with minimum energetic consumption. This quest to find the efficient shape is what makes us go beyond formalistic architecture. The road of morphological investigation is traced, as the title of the thesis suggests, following the thread of radiolaria. These single-cell microorganisms possess very complex skeletons, so to be able to understand their morphology we must establish a wide spectrum which spans throughout more than 4.000 years of human knowledge. From the discovery of the platonic solids, polyhedrons which configure a huge range of global shapes of these skeletons, through the application of generative algorithms which allow us to understand and recreate the behavioral patterns behind the systems of compression and irregular tessellation of the radiolarian skeletons. The thesis does not pretend to lay out the problem from a biological, paleontological standpoint, although inevitably the first chapter is developed through an analysis in reference to the current state of the science. A deeper analysis of morphological aspects and different positionings is taken into account where these microorganisms have served as reference in the architectonic discipline. In addition we find necessary to analyse other natural patterns which share generative strategies with radiolarian skeletons. Aforementioned, in the second chapter an itinerary of the most basic geometries to the more complex ones is addressed. These are related, in this chapter, to the generative strategies of the shapes found in microorganisms. At the same time, the analysis of these geometries is placed among examples of applications inside the fields of architecture, design and the arts. To come to an end, a time chart synthesizes and relates the three investigation paths addressed: natural, geometrical and architectonic. After the two central chapters, the final chapter summarises the strategies analysed and applies the knowledge acquired throughout the thesis. This final chapter is shaped by the realization of different prototypes which range from traditional analytical drawings, to digital fabrication and parametric design, going through plaster analogical models, metal bars, resin, silicone, latex, etc.
Resumo:
Esta es la búsqueda de respuestas a esa duda constante: De dónde venimos y que hemos ido dejando por el camino. ¿Está todo claro en este recorrido o hemos actuado por acumulación de errores heredados de procesos anteriores? Es la investigación a través del descubrimiento de nuestro pasado, de nuestros orígenes en materia de seguridad de protección contra incendios, y sobre todo de ejecución de una arquitectura pensada para ser recorrida con mayor seguridad y ser evacuada en un tiempo razonable. El trabajo investiga, a nivel nacional, la evolución de la sociedad y sus efectos sobre la manera de interpretar el problema de la seguridad contra incendios en los edificios. El interés fundamentalmente es poner en claro todos aquellos aspectos que afectan a la evacuación de las personas. Para ello se han estudiado los principales hitos de actuación, las preocupaciones principales surgidas en cada momento y las soluciones adoptadas. Se ha comprobado su aplicación o su demora hasta que se ha producido el siguiente gran suceso que ha motivado una nueva revisión de los procedimientos de diseño y control. En primer lugar, tratando de relacionar los incendios fundamentales que han influido en nuestra forma de abordar el problema en distintos momentos de la historia de España. En segundo lugar, haciendo un recorrido sobre la figura del arquitecto y su participación en los medios de control y legislación sobre la manera de intervenir en el servicio de incendios o de resolver los edificios en materia de protección contra incendios o evacuación de sus ocupantes. En definitiva, descubriendo los escritos de algunos especialistas, fundamentales para entender nuestra manera de abordar el problema de la protección en los edificios, a lo largo de la historia. Se ha revisado como se han producido los siniestros más importantes en teatros y otros locales públicos .Analizando la forma en que los arquitectos implicados han tratado de resolver las posibles deficiencias ante el riesgo. Se trata de la tipología edificatoria donde, por primera vez, surge la preocupación por adoptar medidas y procedimientos de seguridad en caso de incendio. Resultan locales con una importante siniestralidad, donde se desarrolla la principal actividad lúdica del momento, y que por el importante número de personas que albergan, son fuente de preocupación entre el público y las autoridades. Otras cuestiones en un tema tan amplio, que quedan simplemente esbozadas en este trabajo de investigación, son los procedimientos de los sistemas de extinción, la estructura organizativa de la ciudad, las primeras sociedades de seguros de incendios, la aparición de patentes a partir del desarrollo industrial del siglo XIX. Todo ello, con el hilo conductor de la reglamentación que se ha ido elaborando al respecto. Al principio, sobre espectáculos públicos, acotando el punto de partida en la materia de nuestra reglamentación. Anticipando sistemas constructivos y datos dimensionales de la evacuación. Llegados a mediados del siglo XX, abordando otros usos. Haciendo seguimiento de la modernización de los procesos edificatorios y la reglamentación sectorial. Recabando información de las organizaciones profesionales que comienzan a reclamar una coordinación nacional de los sistemas preventivos y que desemboca en el Proyecto de Reglamento de prevención contra el fuego que nunca será publicado. Toda esta etapa, plagada de documentos de carácter voluntario u obligatorio, local y nacional, van definiendo los criterios dimensionales con los que debe resolverse los elementos arquitectónicos susceptibles de servir para la evacuación. Se trata de una etapa intensa en documentación, cambiante, sujeta a los criterios que establecen los países del entorno más avanzados en la materia. Las dos últimas décadas del siglo, acotadas por la transición política y varios siniestros de graves consecuencias, definen el proceso normativo que culmina con el código técnico de la edificación que hoy conocemos. Es un periodo de aprendizaje y asimilación del capítulo de la seguridad, donde los métodos son variados. Donde la intencionalidad última es trasladar un sistema prescriptivo a un modelo prestacional propio de la madurez en el análisis del tema y en las corrientes de los países del entorno. ABSTRACT This is the search for answers to that constant question: Where do we come from and what have left along the way? Has everything been clear on this journey, or have we acted as a result of a collection of errors learned from prior processes? This has been research through exploration of our past, of our origins regarding fire protection safety, and, above all, of the endeavour to utilize architecture aimed at offering the highest level of safety and evacuation in a reasonable time. This project has researched society’s change nationwide and its effects on how to interpret the difficulty of fire protection safety in buildings. Its focus has fundamentally been to clarify those aspects that affect the evacuation of people. To this end, the main milestones of action, the principal concerns that have arisen at each step, and the solutions taken have all been studied. A check was performed on their application; or their delay until a significant event occurred that prompted a new revision of design and control procedures. Firstly, this was done by attempting to connect the main fires that have influenced how we handle the problem at different times in Spain’s history. Secondly, an examination was done on the figure of the architect and his participation in the means of control and legislation on how to intercede in fire services, or how the architect finds solutions for buildings in terms of fire protection, or the evacuation of their occupants. In short, the written works of certain specialists, who are essential to our understanding of how to deal with the problem of protection in buildings, were explored throughout history. A study was done on the most significant disasters in theatres and other public establishments. This was done by analysing the way the architects involved have aimed to solve possible points liable to risk. It is a classification of building where, for the first time, the concern arose to adopt safety measures and procedures in the event of fires. Public establishments with considerable accident rates emerged. Here the main entertainment activities of the time took place. These spaces were a source of worry among the public and authorities due to the high number of persons they accommodated. Other issues in such an extensive subject, which are only outlined in this research study, are procedures in extinguishing systems, the organizational structure of cities, the first fire insurance companies, and the appearance of patents after the industrial development of the 19th century. All of these aspects are joined by the common thread of regulations that have been created in this matter. At the beginning, these regulations were for public shows, thus defining the starting point for our regulations. This was done in anticipation of structural systems and size data of evacuations. With the arrival of the mid-20th century, different uses were addressed. A modernization of construction processes and the industry regulations were tracked. Information was gathered from professional organizations that began to demand a national coordination of prevention systems which led to the Regulation Project on fire prevention which will never be published. Throughout this stage, replete with voluntary and compulsory documents, both on the local and national level, the dimensional criteria to be used in the resolution of architectural elements open to use in evacuation were defined. This was a period that was filled with documentation, change, and subject to the criteria that the most advanced countries in the field established in this regard. The final two decades of the century, marked by political transition and several accidents with grave consequences, defined the regulation process that culminated with the building technical code known today. This was a period of learning and understanding in the chapter of safety, where the methods are varied. In this chapter, the ultimate goal is to insert a prescriptive-based standard into a performance-based code suitable for cultivated experience in analysis of the subject and the tendencies in countries dealing with this field.
Resumo:
El objetivo de ésta tesis es estudiar cómo desarrollar una aplicación informática que implemente algoritmos numéricos de evaluación de características hidrodinámicas de modelos geométricos representativos de carenas de buques. Se trata de especificar los requisitos necesarios que debe cumplir un programa para informático orientado a dar solución a un determinado problema hidródinámico, como es simular el comportamiento en balance de un buque sometido a oleaje, de popa o proa. una vez especificada la aplicación se realizará un diseño del programa; se estudiarán alternativas para implementar la aplicación; se explicará el proceso que ha de seguirse para obtener la aplicación en funcionamiento y se contrastarán los resultados obtenidos en la medida que sea posible. Se pretende sistematizar y sintetizar todo el proceso de desarrollo de software, orientado a la simulación del comportamiento hidrodinámico de un buque, en una metodología que se pondrá a disposición de la comunidad académica y científica en la forma que se considere más adecuada. Se trata, por tanto, de proponer una metodología de desarrollo de software para obetener una aplicación que facilite la evaluación de diferentes alternativas de estudio variando parámetros relativos al problema en estudio y que sea capaz de proporcionar resultados para su análisis. Así mismo se incide en cómo ha de conducirse en el proceso para que dicha aplicación pueda crecer, incorporando soluciones existentes no implementadas o nuevas soluciones que aparezcan en este ámbito de conocimiento. Como aplicación concreta de la aplicación se ha elegido implementar los algoritmos necesarios para evaluar la aparición del balance paramétrico en un buque. En el análisis de éste problema se considera de interés la representación geométrica que se hace de la carena del buque. Además de la carena aparecen otros elementos que tienen influencia determinante en éste estudio, como son las situación de mar y las situaciones de carga. Idealmente, el problema sería resuelto si se consiguiera determinar el ángulo de balance que se produce al enfrentar un buque a las diferentes condiciones de mar. Se pretende preparar un programa utilizando el paradigma de la orientación a objetos. Considero que es la más adecuada forma de modularizar el programa para poder utilizar diferentes modelos de una misma carena y así comparar los resultados de la evaluación del balance paramétrico entre sí. En una etapa posterior se podrían comparar los resultados con otros obtenidos empíricamente. Hablo de una nueva metodología porque pretendo indicar cómo se ha de construir una aplicación de software que sea usable y sobre la que se pueda seguir desarrollando. Esto justifica la selección del lenguaje de programación C++. Se seleccionará un núcleo geométrico de software que permita acoplar de forma versátil los distintos componentes de software que van a construir el programa. Este trabajo pretende aplicar el desarrollo de software a un aspecto concreto del área de conocimiento de la hidrodinámica. No se pretende aportar nuevos algoritmos para resolver problemas de hidrodinámica, sino diseñar un conjunto de objetos de software que implementen soluciones existentes a conocidas soluciones numéricas a dichos problemas. Se trata fundamentalmente de un trabajo de software, más que de hidrodinámica. Lo que aporta de novedad es una nueva forma de realizar un programa aplicado a los cálculos hidrodinámicos relativos a la determinación del balance paramétrico, que pueda crecer e incorporar cualquier novedad que pueda surgir más adelante. Esto será posible por la programación modular utilizada y los objetos que representan cada uno de los elementos que intervienen en la determinación del balance paramétrico. La elección de aplicar la metodología a la predicción del balance paramétrico se debe a que este concepto es uno de los elementos que intervienen en la evaluación de criterios de estabilidad de segunda generación que estan en estudio para su futura aplicación en el ámbito de la construcción naval. Es por tanto un estudio que despierta interés por su próxima utilidad. ABSTRACT The aim of this thesis is to study how to develop a computer application implementing numerical algorithms to assess hydrodynamic features of geometrical models of vessels. It is therefore to propose a methodology for software development applied to an hydrodynamic problem, in order to evaluate different study alternatives by varying different parameters related to the problem and to be capable of providing results for analysis. As a concrete application of the program it has been chosen to implement the algorithms necessary for evaluating the appearance of parametric rolling in a vessel. In the analysis of this problem it is considered of interest the geometrical representation of the hull of the ship and other elements which have decisive influence in this phenomena, such as the sea situation and the loading condition. Ideally, the application would determine the roll angle that occurs when a ship is on waves of different characteristics. It aims to prepare a program by using the paradigm of object oriented programming. I think it is the best methodology to modularize the program. My intention is to show how face the global process of developing an application from the initial specification until the final release of the program. The process will keep in mind the spefici objetives of usability and the possibility of growing in the scope of the software. This work intends to apply software development to a particular aspect the area of knowledge of hydrodynamics. It is not intended to provide new algorithms for solving problems of hydrodynamics, but designing a set of software objects that implement existing solutions to these problems. This is essentially a job software rather than hydrodynamic. The novelty of this thesis stands in this work focuses in describing how to apply the whole proccess of software engineering to hydrodinamics problems. The choice of the prediction of parametric balance as the main objetive to be applied to is because this concept is one of the elements involved in the evaluation of the intact stability criteria of second generation. Therefore, I consider this study as relevant usefull for the future application in the field of shipbuilding.