16 resultados para Automóviles-Partes y repuestos
em Universidad Politécnica de Madrid
Resumo:
En este proyecto se va desarrollar una aplicación distribuida para la diagnosis y monitorización de automóviles. Se pretende poder realizar estas funciones en prácticamente cualquier automóvil del mercado (con fabricación a partir del año 1996 para el caso de automóviles gasolina y para el año 2000 en el caso de automóviles diésel) de manera remota, aprovechando la conectividad a Internet que actualmente brindan la mayoría de los smartphones. La viabilidad del proyecto reside en la existencia de estándares para la diagnosis de la electrónica del motor. Para poder llevar a cabo esta tarea, se empleará una interfaz de diagnóstico ELM327 bluetooth, que servirá de enlace entre el vehículo y el teléfono móvil del usuario y que a su vez se encargara de enviar los datos que reciba del vehículo a un terminal remoto. De esta manera, se tendrá la aplicación dividida en dos partes: por un lado la aplicación que se ejecuta en el terminal móvil del usuario que actuará como parte servidora, y por el otro la aplicación cliente que se ejecutará en un terminal remoto. También estará disponible una versión de la aplicación servidora para PC. El potencial del proyecto reside en la capacidad de visualización en tiempo real de los parámetros más importantes del motor del vehículo y en la detección de averías gracias a la funcionalidad de lectura de la memoria de averías residente en el vehículo. Así mismo, otras funcionalidades podrían ser implementadas en posteriores versiones de la aplicación, como podría ser el registro de dichos parámetros en una base de datos para su posterior procesado estadístico; de este modo se podría saber el consumo medio, la velocidad media, velocidad máxima alcanzada, tiempo de uso, kilometraje diario o mensual… y un sin fin de posibilidades. ABSTRACT. In this project a distributed application for car monitor and diagnostic is going to be developed. The idea is to be able to connect remotely to almost any car (with production starting in 1996 in the case of petrol engines and production starting in 2000 in case of diesel engines) using the Internet connection available in almost every smartphone. The project is viable because of the existence of standards for engine electronic unit connection. In order to do that, an ELM327 bluetooth interface is going to be used. This interface works as a link between the car and the smartphone, and it is the smartphone which sends the received data from the car to a remote terminal (computer). Thus, the application is divided into two parts: the server which is running on smartphone and the client which is running on a remote terminal. Also there is available a server application for PC. The potential of the project lies in the real-time display data capacity of the most important engine parameters and in the diagnostic capacity based on reading fault memory. In addition, other features could be implemented in later versions of the application, as the capacity of record data for future statistic analysis. By doing this, it is possible to know the average fuel consumption, average speed, maximum speed, time of use, daily or monthly mileage… and an endless number of possibilities.
Resumo:
La Tesis decodifica una selección de veinte proyectos representativos de Sejima-SANAA, desde su primer proyecto construido, la Casa Platform I, 1987, hasta el Centro Rolex, 2010, año en que Sejima y Nishizawa –SANAA- reciben el Premio Pritzker. De los veinte proyectos once son de Sejima: Casa Platform I, Casa Platform II, Residencia de Mujeres, Casa N, Pachinco Parlor I, Villa en el Bosque, Comisaría en Chofu, Casa Y, Apartamentos en Gifu, Edificio de equipamientos en la Expo Tokio 96, Pachinko Parlor III; y nueve de SANAA: edificio Multimedia en Oogaki, estudio de viviendas metropolitanas,Park Café en Koga, De Kunstlinie en Almere, Museo de Kanazawa, Pabellón de Toledo, Escuela de Zollverein, Casa Flor y Centro Rolex. La decodificación lee la obra de Sejima-SANAA a la inversa para ‘reconstruir’, en un ejercicio de simulación ficticia, una versión verosímil y coherente de los que podrían haber sido sus procesos proyectuales; podrían, porque los verdaderos son imposibles de dilucidar. Los que se proponen se pretenden exclusivamente verosímiles y plausibles. Con ello se pretende contribuir al entendimiento y comprensión de la arquitectura de Sejima-SANAA y, tangencialmente y en menor medida, a la teoría sobre el ejercicio proyectual arquitectónico. La decodificación se centra en dos aspectos concretos: la forma arquitectónica y el papel proyectual de la estructura portante. Ambas decodificaciones se extienden inevitablemente a otros aspectos relacionados, como, por ejemplo, la naturaleza del espacio arquitectónico. El procedimiento de investigación partió de una descripción objetiva y pormenorizada de los significantes formales y estructurales de cada proyecto desde su propia configuración física y geométrica. Esa descripción ‘objetiva’, llevada al límite, permitió que afloraran estructuras conceptuales y lógicas subyacentes de cada proyecto. Unida a interpretación crítica, –mediante su relación y confrontación con otras arquitecturas y otros modos de hacer conocidos- permitió trazar la reconstitución ficticia que persigue la decodificación. Ese trabajo se materializó en veinte ensayos críticos y se acompañó de un conjunto de otros textos sobre temas sugeridos o reclamados por el proceso de investigación. El conjunto de todos esos textos constituye el material de trabajo de la tesis. A partir de ahí, con una visión de conjunto, la tesis identifica una trayectoria de estrategias formales y una trayectoria de estrategias proyectuales relacionadas con lo portante. Juntas conforman el grueso de la tesis que se expone en los cuatro capítulos centrales. Los precede un capítulo introductorio que expone el recorrido biográfico de K. Sejima y la trayectoria profesional de Sejima-SANAA; y los siguen de unos textos transversales sobre forma, lugar y espacio. La tesis termina con una síntesis de sus conclusiones. Las estrategias formales se exponen en tres capítulos. El primero, ‘Primeras estrategias formales’ agrupa proyectos de la primera etapa de Sejima. El segundo capítulo está dedicado enteramente al proyecto de los apartamentos en Gifu, 1994-98, que según esta tesis, supuso un importante punto de inflexión en la trayectoria de Sejima; tanto el tercer capítulo lleva por nombre ‘Estrategias formales después de Gifu’ y recoge los proyectos que le siguieron. Las ‘Primeras estrategias formales’, varias y balbucientes, se mueven en general en torno a dos modos o procedimientos de composición, bien conocidos: por partes y sistemático. Éste última inicia en la trayectoria de SANAA un aspecto que va a ser relevante de aquí en adelante: entender el proyecto como propuesta genérica en la que, más allá de su realidad específica y tangible, subyace una lógica, en cada proyecto la suya, extrapolable a otros lugares, otras dimensiones, incluso otros programas: cada proyecto podría dar lugar a otros proyectos de la misma familia. La composición sistemática incluye, entre otros, la Casa Platform II, basada en la definición de un elemento constructivo, y la formulación de unas leyes de repetición y de posibles modos de agrupación. Incluye también la Residencia de Mujeres Saishunkan Seiyaku- proyecto que lanzó a Sejima a la fama internacional-, que también sería un sistema, pero distinto: basado en la repetición regular de una serie de elementos a lo largo de una directriz generando un hipotético contenedor infinito del que el proyecto sería tan solo un fragmento. La estrategia formal del edificio de Gifu ahondaría en la voluntad genérica del proyecto, adoptando la lógica de un juego. El proyecto sería una partida del juego, pero no la única posible, podrían jugarse otras. Esta hipótesis del juego está verificada en ‘El Juego de Gifu’ que - tras formular el juego identificando sus elementos (tablero y fichas), reglas y procedimientos- juega una partida: la que habría dado lugar al edificio proyectado por Sejima. Gifu extiende el concepto de ‘repetir’ un elemento constructivo a la de repetir un patrón espacial, lo que conlleva: la desvinculación entre forma y función; y un nuevo concepto de flexibilidad, que deja de referirse al uso flexible del edificio construido para pertenecer al momento proyectual en que se asignan funciones específicas a los patrones espaciales. Esta tesis propone que esa asignación de funciones sería uno de los últimos eslabones del proceso proyectual, algo opuesto a la premisa moderna de “la forma sigue a la función”. Las estrategias formales ‘Después de Gifu’ tienen también lógicas de juego, pero cada estrategia responde a un juego distinto, como dejan entrever sus nombres: ‘Tableros de Juego’, que con distintos grados de madurez estaría presente en varios proyectos; ‘Elementos de Catálogo’ en el Museo de Kanazawa; ‘Forma apriorística’, en la Casa Flor y ‘Repetición de una situación topológica’, en el Centro Rolex. Todas esas estrategias, o juegos, mantienen aspectos comunes relativos a la forma arquitectónica, precisamente los aspectos Gifu: la repetición aplicada al patrón espacial, y lo que conlleva: desvinculación entre forma y función y la nueva acepción de flexibilidad. ‘Tableros de Juego’ consiste en configurar cada sistema de proyecto (estructura, cerramientos, particiones y mobiliario) eligiendo elementos ofrecidos por una geometría de base, en cada proyecto la suya, en general reticular: intersecciones, líneas, módulos. Cada sistema se configura, en principio, sin relación de subordinación con cualquiera de los demás; cuando esa subordinación es ineludible, el juego determina que el sistema portante no puede materializar el orden geométrico de base, lo que se traduce en que no ejerce el papel dominante. Por lo tanto, ‘Tableros de Juego’ transgrede la lógica de la planta libre moderna: la estructura ni refleja ni revela el orden de base y los sistemas no respetan las relaciones de subordinación jerárquica y encadenada que aquella determinaba. Esta estrategia de ‘Tableros de juego’ deriva en soluciones y proyectos formales muy distintos: los proyectos de Oogaki y Park Café, que presentarían ‘Tableros de Juego’ incipientes; De Kunstlinie en Almere y la Escuela de Zollverein, que presentarían una consolidación de esta estrategia; y el Pabellón de Vidrio de Toledo que resultaría de la subversión de la estrategia. Este último proyecto, además, lleva el concepto de repetición más allá del elemento constructivo y del patrón espacial (que en este caso tiene forma de burbuja) parar acabar afectando a la propia experiencia del espectador, que esté donde esté, siempre tiene la sensación de estar en el mismo sitio. Esta tesis denomina a ese espacio repetitivo como ‘espacio mantra’. La estrategia ‘Elementos de Catálogo’ se ilustra con el Museo de Kanazawa. Su lógica parte de la definición de una serie de elementos, muy pocos, y se basa en el ingente número de posibles combinaciones entre sí. Gifu habría anunciado el catalogo de elementos en la caracterización de sus patrones espaciales. La estrategia ‘Forma Apriorística’ se ilustra con la Casa Flor. La decisión sobre el tipo de forma -en este caso la de una ameba- estaría al principio del proceso proyectual, lo que no quiere decir que sea una forma arbitraria: la forma de la ameba lleva implícita la repetición de un patrón espacial (el seudópodo) y una apoteosis del concepto de repetición que, alcanzando la experiencia espacial, da lugar a un espacio repetitivo o mantra. El ‘Espacio Mantra’ es uno de los leitmotivs, que se emplean como argumento en la última estrategia formal que la Tesis decodifica: el Centro Rolex. Con respecto a la estructura portante, la tesis identifica y traza una trayectoria de cinco estrategias proyectuales: preeminencia, ocultación, disolución, desaparición y desvirtuación. --Ocultación, reduce el papel dominante de la estructura. Al principio es una ocultación literal, casi un tapado de los elementos estructurales, como en Gifu; luego se hace más sofisticada, como la ocultación por camuflaje o la paradójica ocultación por multiplicación de Park Café. --La disolución merma la condición dominante de la estructura que en lugar de configurarse como sistema unitario u homogéneo se fragmenta en varios subsistemas. --La desaparición se refiere a estructuras que desaparecen como sistemas propios y autónomos, a proyectos en los que la función portante es desempeñada por otros sistemas como el de las particiones. La desaparición culmina con la Casa Flor, cuyo perímetro ejerce la función portante y además es transparente, está desmaterializado: la estructura se ha hecho invisible, ha desaparecido. --La desvirtuación se refiere a estructuras que sí se presentan como sistemas propios y autónomos, pero dejan de tener un papel preeminente por cuanto no materializan el orden de base: esta estrategia es correlativa a la estrategia formal ‘Tableros de juego’. Las conclusiones de la tesis están en la propia organización de la tesis: la identificación de las estrategias. Aún así, y como epílogos, se exponen seis. Las dos primeras subrayan el hilo conductor del trabajo realizado, que radica en la cualidad genérica de las estrategias proyectuales en Sejima-SANAA. Las cuatro siguientes dilucidan hasta qué punto hay, en sus proyectos, rasgos o significantes formales y/o estructurales que sean a su vez señales características del panorama arquitectónico contemporáneo; y plantean la pregunta estrella: ¿hay algunos que, apuntando más lejos, supongan aportaciones originales? --Como aportaciones originales la tesis destaca: la identificación entre el ideal genérico y proyecto concreto; y la propuesta de un espacio nuevo, híbrido, una suerte de estadio intermedio entre el espacio subdividido y compartimentado de la tradición y el continuo moderno. --Como síntomas de contemporaneidad se destacan: respecto de la forma, la traslación de la especificidad formal de la parte al conjunto; y respecto de la estructura, la tendencia contemporánea a hacer estructuras cada vez más ligeras y livianas, que tienden a lo evanescente. Ésta última, la tendencia al evanescencia estructural, podría tener la condición de aportación original, no en vano la desaparición de la estructura lleva la evanescencia hacia sus últimas consecuencias, y en el caso de estructuras con presencia física, hace que dejen de ser el sistema ordenador orquestador del proceso proyectual. ABSTRACT The Thesis decodes a selection of twenty representative Sejima-SANAA projects, from the first one built, the Platform I House in 1987, to the Rolex Center in 2010, year in which Sejima and Nishizawa –SANAA- received the Pritzker Prize. Eleven projects are from Sejima: Platform I, Platform II, Saishunkan Seiyaku Women´s Dormitory, N- House, Pachinco Parlor I, Villa in the Forest, Policy Box at Chofu Station, Y-House, Gifu Kitigata Apartment, World City Expo ´96 Facilities Building, Pachinko Parlor III; and nine from SANAA: Multimedia Workshop in Ogaki, Metropolitan Housing Studies, Park Café in Koga, De Kunstlinie in Almere, Kanazawa Museum, Glass Pavilion at the Toledo Museum of Art, Zollverein School, Flower House and the Rolex Center. This decoding reads the Sejima-SANAA’s projects inversely aiming ‘to reconstruct', in a fictitious simulation exercise, a likely and coherent version of what her/their projectual processes ‘could’ have been; ‘could’, because the true ones are impossible to explain. The ones proposed here pretend only to be likely and reasonable. By so doing the Thesis tries to contribute to the understanding and comprehension of Sejima-SANAA architecture and, tangentially and to a lesser extent, to the theory of architectural projects exercise. Decoding centers in two specific aspects: architectural form, and projectual role of the load bearing structure. Both decodes inevitably extend to other related aspects such as, for example, the nature of space. The research procedure begun by carrying out an objective and detailed description of the formal and structural signifiers of each project; looking at them from their physical and geometric configuration. Taken to the limit, the ‘objective’ descriptions allowed the conceptual structures and underlying logics of each project to arise. Together with critical interpretations, which related and confronted them with other architectures and well-known projectual working ways, it became possible to outline and trace the intended fictitious reconstruction decodes. The descriptive analytical work materialized in twenty critical essays, and was accompanied by a set of other essays on subjects suggested or demanded by the research process. Together, all those texts were the material basis on which thesis work was built. Looking at the whole and taking it from there, the thesis identifies two related projectual trajectories: a trajectory of formal strategies and a trajectory of strategies having to do with structural systems and components. Both, together, constitute the bulk of the thesis, as presented in the four central chapters. Preceding them there is an introductory chapter outlining the biographical path of Kazuyo Sejima and the professional trajectory of Sejima-SANAA. And following them there is another one containing transversal texts on form, place and space. The thesis ends with a synthesis on conclusions. The formal strategies are displayed in three chapters. The first one, `Early formal strategies' groups the first phase projects by Sejima. The second one, ‘Formal strategies of Gifu’s paradigm’, is entirely dedicated to the Gifu apartments project, 1994-98, which according to this thesis meant an important inflexion point in Sejima’s trajectory; so much so that the third chapter is named `Formal strategies after Gifu' and gathers the selected projects that followed it. The ‘Early formal strategies', diverse and tentative, move in general around two well-known projectual composition methods ‘composition by parts’, and ‘systematic composition’. This last one –systematic composition- begins and leads in SANAA’s trajectory an aspect which will remain relevant from here on: the understanding of the project as if it were an specific instance of a generic proposal in which -below and beyond the project tangible reality- there lays a logic that could be applicable at other places, for other dimensions, even with other programs; from each project, other projects of the same family could rise. The set of projects using this systematic composition method include, among others, the ‘Platform II House, based on the definition of a constructive element and of rules having to do with its replicas and their possible groupings. It also includes the Saishunkan Seiyaku Women Residence -project that launched Sejima to international fame- that could also be seen as a system, but of a different kind: a system based on the regular repetition of a series of elements along a directive line, thus generating a hypothetical infinite container of which the project would be only a fragment. The formal strategy of the Gifu apartments building would push further towards the generic project concept, adopting the logic of a game. The project would be a bout, a round, one play…, but not the only possible one; others could be played. The thesis confirms this game hypothesis -after having formulated `The Game of Gifu' and identified its elements (board, chips, rules and procedures)- playing the one play from which the building as projected by Sejima would have raised. Gifu extends the concept of ‘repeating a constructive element’ to that of ‘repeating a space pattern element’, and to what it implies: the decoupling of form and function, leading to a new concept of flexibility that no longer refers to the flexible use of the constructed building but to the projectual moment at which the specific functions are assigned to the space patterns. This thesis proposes that this allocation of functions would be one of the last steps in projectual process, quite opposite from the modern premise: “form follows function”. The Formal strategies after Gifu do also have a game logic; but, as their names reveal, each strategy responds to a different game: ‘Game Boards’, present with different maturity levels in several projects; ‘Elements from a Catalogue’, in the Kanazawa Museum; ‘Aprioristic Form’, in the Flower House; and ‘Repetition of a topologic situation', in the Rolex Center. All of these strategies, or games, maintain common aspects having to do with architectural form; aspects that were already present, precisely, in Gifu: repetition of space pattern units, uncoupling of form and function, and a new meaning of flexibility. -`Game Boards’ consists on setting up a base geometry -each project his, generally reticular- and give form to each project system (structure, closings, partitions and furniture) by choosing elements -intersections, lines, modules- it offers. Each project system is formed, in principle, with no subordinated relation with any of the others; when subordination is unavoidable, the game rules determine that the load bearing structural system may not be the one to materialize the base geometric order, which means that it does not exert the dominant role. Therefore, ‘Game Boards' transgresses the Modern logic, because the structure neither reflects nor reveals the base order, and because the systems do not respect any of the hierarchic and chained subordination relations that the ‘free plan’ called for. ‘Game Boards' leads to quite different solutions and formal projects: the Oogaki and Park Coffee projects show incipient Game Boards; The Almere Kunstlinie and the Zollverein School present consolidations of this strategy; and the Toledo’s Glass Pavilion results from subverting the strategy. In addition, the Toledo project takes the repetition concept beyond that of using a constructive element and a space pattern element (in this case with a bubble form) to end up affecting the personal experience of the spectator, who, wherever he is, feels to always be in the same place. This thesis denominates that repetitive space as ‘Mantra space '. -‘Elements from a Catalogue’ is shown with the Kanazawa Museum. Its logic starts from the definition of a series of elements, very few, and it is based on the huge number of possible combinations among them. The ‘Elements from a Catalogue’ approach was announced in the Gifu project when characterizing its space pattern elements. -Aprioristic Form' is illustrated by the Flower House. The decision on the type of form -in this case the form of an amoeba- would be the beginning of the projectual process, but it does not mean it is arbitrary form: the amoeba form implies repeating a space pattern (pseudopodia) and an apotheosis of the repetition concept: embracing the space experience, it gives rise to a repetitive or mantra space. ‘Mantra Space’ is one of leitmotivs used as an argument in the last formal strategy Thesis decodes: the Rolex Center. With respect to the ‘Projectual strategies of the load bearing structure’, the thesis finds and traces a trajectory of five projectual strategies: ‘preeminence, concealment, dissolution, disappearance and desvirtuación’. --Preeminence is present in Sejima’s first works in which she resorts to structures which have a dominant preeminent role in the project in so far as they impersonate the greater scale and/or materialize the base geometric order. In later works that preeminence will be inverted, the projects aiming towards its opposite: lighter, slighter, smaller structures. -Concealment reduces the dominant role of the structure. At the outset concealment is literal, almost hiding the structural elements, as in Gifu; soon it will become more sophisticated, such as the concealment by camouflage or the paradoxical concealment by multiplication in the Koga Park Café. -Dissolution diminishes the dominant condition of the structure: instead of its’ being configured as unitary or homogenous system is fragmented in several subsystems. -Disappearance talks about structures that fade away as self referred and independent systems; projects in which the load bearing function is carried out by other systems such as the set of partitions. Disappearance reaches its zenith at the Flower House, whose perimeter functions structurally being, in addition, transparent, immaterial: its structure has become invisible, has disappeared. -Desvirtuación talks about structures that do appear like independent self-systems, but which that do not longer have a preeminent paper, inasmuch as they do not materialize the base order. This strategy correlates with the ‘Game Boards’ formal strategy. The thesis conclusions are show by the organization of the thesis itself: its identification of the different strategies. Even so, as epilogues, the thesis exposes six ‘Conclusions’. The first two emphasize the leading thread of the work done, rooted in the generic quality of the Sejima-SANAA projectual strategies. The following four expound to what extent their projects show features, or formal and/or structural signifiers, which also are or can be read as characteristic signals of the contemporary architectonic panorama, and raise the key question: aiming farther, may some of them be taken as original contributions? -As original contributions the conclusions highlight: the identification between the generic ideal and the concrete project; and the proposal of a new, hybrid space, kind of an intermediate stage between the traditional subdivided compartmented space and the continuous modern. -As symptoms of contemporaneousness: in relation to the form it highlights the transferring of the formal specificity from the part to the whole; and in relation to the structure, it underscore the contemporary tendency towards lighter and growingly slimmer structures, tending to the evanescent. This last one, the tendency towards structural evanescence, could have condition of being an original contribution, not in vain it carries the structural disappearance towards its last consequences; and in the case of structures with physical presence, it makes them to cease being the ordering system orchestrating the projectual process.
Resumo:
Un dron o un RPA (del inglés, Remote Piloted Aircraft) es un vehículo aéreo no tripulado capaz de despegar, volar y aterrizar de forma autónoma, semiautónoma o manual, siempre con control remoto. Además, toda aeronave de estas características debe ser capaz de mantener un nivel de vuelo controlado y sostenido. A lo largo de los años, estos aparatos han ido evolución tanto en aplicaciones como en su estética y características físicas, siempre impulsado por los requerimientos militares en cada momento. Gracias a este desarrollo, hoy en día los drones son uno más en la sociedad y desempeñan tareas que para cualquier ser humano serían peligrosas o difíciles de llevar a cabo. Debido a la reciente proliferación de los RPA, los gobiernos de los distintos países se han visto obligados a redactar nuevas leyes y/o modificar las ya existentes en relación a los diferentes usos del espacio aéreo para promover la convivencia de estas aeronaves con el resto de vehículos aéreos. El objeto principal de este proyecto es ensamblar, caracterizar y configurar dos modelos reales de dron: el DJI F450 y el TAROT t810. Para conseguir un montaje apropiado a las aplicaciones posteriores que se les va a dar, antes de su construcción se ha realizado un estudio individualizado en detalle de cada una de las partes y módulos que componen estos vehículos. Adicionalmente, se ha investigado acerca de los distintos tipos de sistemas de transmisión de control remoto, vídeo y telemetría, sin dejar de lado las baterías que impulsarán al aparato durante sus vuelos. De este modo, es sabido que los RPA están compuestos por distintos módulos operativos: los principales, todo aquel módulo para que el aparato pueda volar, y los complementarios, que son aquellos que dotan a cada aeronave de características adicionales y personalizadas que lo hacen apto para diferentes usos. A lo largo de este proyecto se han instalado y probado diferentes módulos adicionales en cada uno de los drones, además de estar ambos constituidos por distintos bloques principales, incluyendo el controlador principal: NAZA-M Lite instalado en el dron DJI F450 y NAZA-M V2 incorporado en el TAROT t810. De esta forma se ha podido establecer una comparativa real acerca del comportamiento de éstos, tanto de forma conjunta como de ambos controladores individualmente. Tras la evaluación experimental obtenida tras diversas pruebas de vuelo, se puede concluir que ambos modelos de controladores se ajustan a las necesidades demandadas por el proyecto y sus futuras aplicaciones, siendo más apropiada la elección del modelo M Lite por motivos estrictamente económicos, ya que su comportamiento en entornos recreativos es similar al modelo M V2. ABSTRACT. A drone or RPA (Remote Piloted Aircraft) is an unmanned aerial vehicle that is able to take off, to fly and to land autonomously, semi-autonomously or manually, always connected via remote control. In addition, these aircrafts must be able to keep a controlled and sustained flight level. Over the years, the applications for these devices have evolved as much as their aesthetics and physical features both boosted by the military needs along time. Thanks to this development, nowadays drones are part of our society, executing tasks potentially dangerous or difficult to complete by humans. Due to the recent proliferation of RPA, governments worldwide have been forced to draft legislation and/or modify the existing ones about the different uses of the aerial space to promote the cohabitation of these aircrafts with the rest of the aerial vehicles. The main objective of this project is to assemble, to characterize and to set-up two real drone models: DJI F450 and TAROT t810. Before constructing the vehicles, a detailed study of each part and module that composes them has been carried out, in order to get an appropriate structure for their expected uses. Additionally, the different kinds of remote control, video and telemetry transmission systems have been investigated, including the batteries that will power the aircrafts during their flights. RPA are made of several operative modules: main modules, i.e. those which make the aircraft fly, and complementary modules, that customize each aircraft and equip them with additional features, making them suitable for a particular use. Along this project, several complementary modules for each drone have been installed and tested. Furthermore, both are built from different main units, including the main controller: NAZA-M Lite installed on DJI F450 and NAZA-M V2 on board of TAROT t810. This way, it has been possible to establish an accurate comparison, related to the performance of both models, not only jointly but individually as well. After several flight tests and an experimental evaluation, it can be concluded that both main controller models are suitable for the requirements fixed for the project and the future applications, being more appropriate to choose the M Lite model strictly due to economic reasons, as its performance in recreational environment is similar to the M V2.
Resumo:
El texto aborda tres vías distintas de investigación. Estas tres vías, aunque independientes ,surgen bajo la intuición que la tectónica de Ludwig Mies van der Rohe se debate entre la modernidad y la tradición. Esta tradición está en este trabajo analizada, bajo los principios desarrollados en el siglo XIX en la pintura de paisaje. La pintura de paisaje del XIX abre nuevos campos en la concepción del cuadro. Por un lado, la búsqueda de realidad en el lenguaje de lo representado. Por el otro, una relación directa con el observador. Estas dos vías son el hilo conductor de esta relación que se propone en esta tesis. No se trata aquí de una comparación historicista , sino de realizar una reflexión sobre el discurso estético desarrollados en el XIX y el de Mies sobre las categorías que introducen lo distante y lo próximo, en relación al observador-habitante con la creación de "un lugar". Esta asociación aparece entre la manera de estructurar el espacio del cuadro en la pintura de paisaje de Friedrich y las propuestas de espacio elaboradas por Mies en sus asentamientos con relación al paisaje y la naturaleza circundante. Es importante destacar que una obra pictórica de Friedrich no es, al menos no atiende a los mismos problemas que una obra arquitectónica y podría llegar a ser una "simpleza", la comparación. Pero se atiende mas a los métodos generales que a las soluciones concretas. Y es aquí donde encontramos mas relaciones y conexiones. El primer tema de investigación es el estudio, análisis y levantamiento de la vivienda Wolf (1925-27). En este análisis se hace hincapié en la manera de colocar la vivienda en el sitio y su relación entre los materiales empleados con los espacios creados. Se indaga en el concepto de plinto y su influencia en los modos de ver del habitante. El segundo tema de investigación se refiere a una estudio y evolución de los modos de asentarse en el sitio las viviendas de Mies. Se ha dividido en tres tipos fundamentales de colocarse en el solar. Estas tres maneras son a través del podio, del muro tectónico y del espacio elevado, que se denominado bisagra. Estos tres apoyos se desarrollan en función de las premisas enunciadas en el estudio de la vivienda Wolf; en la que se ponen como ejemplos algunas de la viviendas proyectadas por Mies. El tercer tema indaga en la relación entre el lugar y el hombre a través de la pintura de paisaje desarrollada en el romanticismo, centrándose en la figura de Caspar David Friedrich. Con un análisis de la composición y del lenguaje empleados en el cuadro, se distinguen la autonomía de las partes y su articulación. Se analizan dos cuadros de Friedrich en profundidad "Monje a la orilla del mar" (1807) y "Abadía en el robledal" (1808) se confrontan con la última vivienda construida de Mies , la casa Farnsworth (1945-51).
Resumo:
El objetivo de este proyecto es diseñar un sistema capaz de controlar la velocidad de rotación de un motor DC en función del valor de temperatura obtenido de un sensor. Para ello se generará con un microcontrolador una señal PWM, cuyo ciclo de trabajo estará en función de la temperatura medida. En lo que respecta a la fase de diseño, hay dos partes claramente diferenciadas, relativas al hardware y al software. En cuanto al diseño del hardware puede hacerse a su vez una división en dos partes. En primer lugar, hubo que diseñar la circuitería necesaria para adaptar los niveles de tensión entregados por el sensor de temperatura a los niveles requeridos por ADC, requerido para digitalizar la información para su posterior procesamiento por parte del microcontrolador. Por tanto hubo que diseñar capaz de corregir el offset y la pendiente de la función tensión-temperatura del sensor, a fin de adaptarlo al rango de tensión requerido por el ADC. Por otro lado, hubo que diseñar el circuito encargado de controlar la velocidad de rotación del motor. Este circuito estará basado en un transistor MOSFET en conmutación, controlado mediante una señal PWM como se mencionó anteriormente. De esta manera, al variar el ciclo de trabajo de la señal PWM, variará de manera proporcional la tensión que cae en el motor, y por tanto su velocidad de rotación. En cuanto al diseño del software, se programó el microcontrolador para que generase una señal PWM en uno de sus pines en función del valor entregado por el ADC, a cuya entrada está conectada la tensión obtenida del circuito creado para adaptar la tensión generada por el sensor. Así mismo, se utiliza el microcontrolador para representar el valor de temperatura obtenido en una pantalla LCD. Para este proyecto se eligió una placa de desarrollo mbed, que incluye el microcontrolador integrado, debido a que facilita la tarea del prototipado. Posteriormente se procedió a la integración de ambas partes, y testeado del sistema para comprobar su correcto funcionamiento. Puesto que el resultado depende de la temperatura medida, fue necesario simular variaciones en ésta, para así comprobar los resultados obtenidos a distintas temperaturas. Para este propósito se empleó una bomba de aire caliente. Una vez comprobado el funcionamiento, como último paso se diseñó la placa de circuito impreso. Como conclusión, se consiguió desarrollar un sistema con un nivel de exactitud y precisión aceptable, en base a las limitaciones del sistema. SUMMARY: It is obvious that day by day people’s daily life depends more on technology and science. Tasks tend to be done automatically, making them simpler and as a result, user life is more comfortable. Every single task that can be controlled has an electronic system behind. In this project, a control system based on a microcontroller was designed for a fan, allowing it to go faster when temperature rises or slowing down as the environment gets colder. For this purpose, a microcontroller was programmed to generate a signal, to control the rotation speed of the fan depending on the data acquired from a temperature sensor. After testing the whole design developed in the laboratory, the next step taken was to build a prototype, which allows future improvements in the system that are discussed in the corresponding section of the thesis.
Resumo:
La riqueza de propiedades y posibilidades de movimiento que se derivan de la columna vertebral tomadas en su conjunto son las causas que me han estimulado, para intentar buscar más respuestas, a todas mis actuales incógnitas, que en este presente trabajo pretendo contestar, con los medios de que dispongo, y en la medida que mejor pueda. La tarea, sé de antemano que no es fácil, y no menos corta, debida a la aparente complejidad, pero creo que apoyándome en una apropiada metodología, y centrándome, única y exclusivamente en los puntos que me interesan, puedo lograr los pasos que me lleven a los objetivos finales que persigo. Después de recopilar todos los datos posibles de anatomía, que hacían referencia al raquis, me llevó un cierto tiempo, hasta llegar al ordenamiento de todas las ideas que había adquirido. Esto me hizo llegar a la conclusión de que el planteamiento más adecuado, sería, por un lado un estudio anatómico desde un punto de vista descriptivo de las diferentes partes y elementos que constituyen el eje del cuerpo, para por otro lado y posteriormente, entender mejor las distintas propiedades y funciones mecánicas de este eje raquídeo. Para realizar este trabajo hemos consultado y estudiado numerosas publicaciones de autores, anatomistas prestigiosos tanto clásicos como modernos, tratando de condensar sus teorías o sus exposiciones, que hacen referencia al tema elegido. Todo cuanto queda resumido creemos que contiene interés para cualquier profesor de Educación Física y Deportes. Mi intención no ha sido nunca sacar unas conclusiones prácticas nuevas no descubiertas; y si el de haber empleado un medio o camino a seguir que yo creo conveniente aplicarlo para obtener los datos que persigo, de este raquis tomado en conjunto. Precisamente por este enfoque de abordar el tema en conjunto, he tenido que hacer continuas citas entre los diferentes puntos del sumario,puesto que es muy difícil separar los diferentes aspectos o puntos tomados en cada apartado debido a su constante interrelación. El principal aspecto de la columna vertebral que estudiaremos es su increíble y contradictoria, doble función estótico-dinámica. Intentaremos pues en el contenido de este trabajo, adentrarnos lo más posible en el estudio de esta doble función para su mejor comprensión. Con el deseo de exponer el tema de una manera lo más racional posible, he dividido el estudio en seis capítulos. El primero en el que nos encontramos, es una breve introducción y visión en conjunto del tema. En el segundo hago una síntesis de la formación y del desarrollo de la columna vertebral, que creo de sumo interés debido a su tardío y largo proceso de osificación y formación. En el tercer capítulo realizo una descripción anatómica de todo el raquis que creo de absoluta necesidad para la comprensión de los siguientes apartados. Posteriormente se describe el raquis en conjunto, , funciones, curvaturas, movilidad, así como un breve análisis de movimientos. El quinto capítulo estudia la postura muy atrayente a mi modo de ver, derivada de la evolución de la estación bípeda, asi como algunas consideraciones muy generales de las lesiones de columna debido a su numerosa, cuantía, y por último, hago una síntesis general asi como unas conclusiones finales. Para finalizar quiero manifestar mi profundo agradecimiento al Profesor de Anatomía Dr. Anitua Solano por su entera ayuda, sin su dirección no hubiera sido posible la realización de este trabajo.
Resumo:
El presente proyecto fin de carrera tiene como objetivo realizar un estudio del núcleo de red en las de redes de nueva generación (NGN) y de cómo la evolución de las redes actuales hacia estos conceptos producirá un cambio en la forma de pensar y desarrollar las redes de comunicaciones del futuro. El estudio esta desglosado en tres grandes partes y se inicia con el análisis de la evolución que ha sufrido el núcleo de red en las redes de comunicaciones móviles digitales desde la implantación de las primeras redes digitales hasta la actualidad abarcando tanto la evolución de las redes troncales como de las redes de acceso así como los cambios que han tenido lugar tanto dentro de las propias estructuras de red de los operadores como la forma de interconectarse entre sus redes. Una segunda parte que constituye el cuerpo teórico del trabajo donde se estudia a nivel funcional y de arquitectura de red el desarrollo de los nuevos modelos de red proporcionados por los organismos de estandarización que dan lugar a la aparición de las redes de nueva generación (NGN) y que constituirán el siguiente paso en la evolución de las redes de comunicaciones hacia una infraestructura de red común para todas las redes de acceso actuales. Y una tercera parte que tiene como objetivo el estudio del grado de transformación que tienen que sufrir el núcleo de red en actuales redes troncales de comunicaciones móviles y terrestres, así como una valoración del estado actual de dicha integración, de las dificultades que están encontrando fabricantes y proveedores de servicio para la implementación de dichas redes en el contexto tecnológico y económico actual y su respectivo análisis de como afectará este cambio a los modelos de negocio de los proveedores de servicios de telecomunicaciones. Finalmente se estudia como se esta llevando a cabo este proceso por medio de un caso práctico de implantación e interconexión de la solución propuesta por un fabricante de equipamiento basándose en los modelos anteriormente expuestos en una red comercial de un operador en España y todas las implicaciones asociadas a esta caso concreto. The object of this work is to provide a deep view about the core network inside next generation network (NGN) and how the evolution of the current comunications networks towards the concepts introduced by these new networks brings a change in the way of think and develop communications networks of the future. This work is composed of three blocks and one real case and it starts with the analysis of the evolution of the core network in digital mobile comunications networks since the beginning of the digital mobile comunications networks deployments until nowadays both in core network side and access network side and how the providers have made changes inside their comunications infrastructure and how they interconnect them with other networks. A second part which is the central theoretical part of this work where it is studied the next generation network models stablished by telecomunications associations and how they will be the next step in the evolution of comunications networks towards a common network infrastructure for all existing access networks. A third part where it is studied the level of transformation that core network in mobile and terrestrial comunications networks have to experienced since current situation up to next generation scenarios and what it is the impact of these changes, the issues that are arising for developers, manufactures and service providers in this process, the way that these changes will improve and shift telecomunications business models and how the current economic and technological context is influencing in the whole process. Finally it is studied a actual case about a proposed solution by a manufacturer that based on the models exposed in second part take place a integration and interconection process in a the comercial network of one telecomunication service providers in Spain. This final part regards to all implications associated with this specific case.
Resumo:
El objeto del presente proyecto es la definición completa y exacta de la presa de La Pobla de Segur, con el nivel de detalle suficiente para que se pueda construir la presa conforme a los requerimientos de la propiedad, siendo capaz de regular la ampliación de la dotación anual que la Comunidad de Regantes del Canal de Urgel ha obtenido en concesión. La infraestructura proyectada debe estar acorde con la normativa vigente y que le sea de aplicación. El proyecto presente define claramente las partes y elementos de los que se compone la infraestructura, de manera que la aceptación de los documentos por parte de la empresa contratista supone una garantía total de la funcionalidad de la presa, sin dejar parte alguna indefinida. De esta manera se evitan conflictos entre la propiedad y la empresa contratista.
Resumo:
Aunque las primeras fábricas de tubos de poliéster reforzado con fibra de vidrio en España datan del año 1984, no es sino hasta el año 1996 cuando se comienza su utilización masiva como un sustituto de las tuberías de fribrocemento, que ya habían sido prohibidas por la legislación, debido a los efectos cancerígenos de este material. Desde entonces se ha prodigado la utilización de todas las diferentes tipologías de esta clase de tubería, de conformidad a los procesos de fabricación empleados que se encuentran recopilados en el AWWA Manual M45 (Fiberglass Pipe Design), obteniéndose muy diversos resultados. Durante estos años, ha surgido una creciente preocupación en los usuarios de este tipo de tuberías dadas las continuas y numerosas averías en todo el ámbito geográfico. Esto ha promovido el desarrollo de la presente investigaicón, que se ha dividido en dos partes y que ha concluido con la determinación de un nuevo mecanismo específico de fractura. La primera parte se centró en la obtención y desarrollo del modelo teórico que hemos venido a denominar como "Teoría de la Caja Mecánicamente Contaminada", y que está basado en la contaminación o separación por un impacto de dos de las tres capas que forman la tubería, la capa intermedia de arena y la capa más interna o "inner layer". La consecuencia es la disminución del canto resistente, la rotura del inner layer y la entrada de fluido a la capa de arena. Para la evaluación de la magnitud de esta separación se ha desarrollado un modelo analítico que ha determinado la existencia de una relación cuadrática que la rige, y que ha sido verificado mediante ensayos de impacto sobre probetas de tuberías, alcanzando ajustes de hasta el 92%. Así, se ha determinado que impactos de muy baja intensidad, del entorno de 90 a 160 Julios en tuberías Filament Winding continuo PN 16-20 (de 800 a 1000mm) pueden comprometer seriamente la integridad estructural de la tubería sin dejar, en un principio, muesca o traza alguna que pueda alertar del problema. Los siguientes pasos en el estudio se dirigieron a determinar qué otros mecanismos, aparte del golpe, podrían contaminar la tubería y a estudiar el consiguiente avance de la fractura a las capas externas. Se trataba además de analizar la aparición en el tubo de unas misteriosas manchas en forma de "piel de leopardo" y de otros fenómenos aparecidos en las averías como que algunas de las deformaciones de la rotura por presión interna son hacia el interior del tubo y no al revés, como habría sido de esperar a priori. Se optó entonces por comenzar la que ha constituido la segunda parte de la investigación. Para ello se recurrió a realizar ensayos hidráulicos en banco de pruebas a alta presión, cuyos resultados fueron sorprendentes al descubrir que en el proceso se producía la hidrólisis de la resina de poliéster no catalizada que fluía hacia el exterior del tubo. Como consecuencia se llevaron a cabo nuevos ensayos físicos y químicos para estudiar la migración del material y la hidrólisis producida en el proceso de fractura. En este estudio, resultó muy relevante el hecho de sobrepasar o no la presión que producía el desagarro entre las capas del tubo. En definitiva, en esta investigación, que ha constado de estudios analíticos y estudios experimentales, químicos y numéricos, se ha determinado un nuevo mecanismo de fractura que explica gran parte de los fallos acontecidos en las tuberías de poliéster reforzado con fibra de vidrio. Como aplicación se exponen recomendaciones para mejorar el comportamiento mecánico de esta tipología y evitar así los sobrecostes millonarios producidos por su reposición. Numerous and continuous failures in fiberglass reinforced polyester pipes of different companies and manufacturing processes of the AWWA Manual M45 (Fiberglass Pipe Design), have prompted the development of this research, that has concluded with a specific mechanism describing pipe fractures. This research was carried out via two independent studies. The first one is the development of the hypothesis that turned into the Mechanically Contaminated Layer Theory. This theory describes the fracture mchanism which explains a significant part of massive failures due to the existence of a sand layer placed near the neutral axis in the core making the composite very sensitive to impacts in fibreglass reinforced polyester pipes. These failures create interface delamination and consequently fluid can leak into supporting sand backfill thereby iniating the fracture process. In order to assess the delimination magnitude, an analytic method is developed and a squared root law between delamination and energy applied proposed. Vertical blunt ram testts on samples extracted from complete pipes have been carried out to verify this theory, reaching a goodness of fit up to 92%. It is concluded that low energy impacts, around 90-160J in 800-1000mm diameter PN 16-20 continuous filament winding pipes, can seriously compromise their structural integraty with no external trace. The next step in the study was to determine what other mechanism, apart from the brittle hit, could contaminate the pipe and to analyse the consequente advance of the fracture to the external layers. Another aim was to analyse two phenomena occurred in real pipe failures. The first one is the appearance on the tube of "leopard fur" stains on some of the analysed failures, and the other phenomenon is the "inverse fracture", in which the deformations of the failure due to internal pressure are towards the inside of the tube and not the other way round, as it would be expected. It was then chosen to follow a new branch of the investigation by hydraulic high-pressure bench tests that study seepage and load transmission. The results were very surprising as it was discovered that in the process, hydrolysis of the non-catalysed polyester resin occured, flowing towards the outer of the pipe, which entailed the development of chemical and physical tests of the exuded material to study material migration and hydrolysis of the fracture process. In this particular study it was relevant to exceed or not the pressure that produced the rip between the layers of the tube. In conclusion, a new breakage mechanism in FRP pies with sand-filled layer has been found, which explains a high part of the failure global cases. The whole failure process is justified by the Mechanically Contaminated Layer Theory, which has been corroborated by means of analytical, numerical and experimental studies. Several recommendations are also provided in order to improve the mechanical behaviour of this typology and avoid the millionaire overruns generated by its massive failures.
Resumo:
Existe una proliferación de los llamados Smart Products. Ello es debido a que cada vez se apueste más por este tipo de productos tanto en la vida cotidiana como en el sector industrial. Sin embargo el término Smart Product se utiliza con diferentes acepciones en diferentes contextos o dominios de aplicación. La utilización del término con una semántica diferente de la habitual en un contexto puede llevar a problemas serios de compresión. El objetivo de este trabajo es analizar las diferentes definiciones de Smart Products—Productos Inteligentes, Smart Products en terminología inglesa, ampliamente utilizada—que aparecen en la literatura con el objeto de estudiar los diferentes matices y alcances que ofrecen para valorar si es posible obtener una definición de consenso que satisfaga a todas las partes, y especificarla. Con el fin de poder abarcar definiciones conexas introducimos el concepto Smart Thing—este concepto incluirá aquellas definiciones que puedan estar relacionadas con los Smart Products, como es el caso de los Intelligent Products, Smart Objects, Intelligent Systems, Intelligent Object. Para poder analizar las diferentes definiciones existentes en la literatura existente realizamos una Revisión Sistemática de la Literatura. El enfoque de Computación Autonómica—Autonomic Computing—tiene varios aspectos en común con Smart Products. Por ello una vez analizadas las diferentes definiciones existentes en la literatura hemos procedido a estudiar los puntos en común que tienen con Autonomic Computing, con el fin de valorar si Autonomic Computing es un enfoque adecuado en el que nos podamos apoyar para especificar, y diseñar Smart Products.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.
Resumo:
Las compañías de desarrollo de software buscan reducir costes a través del desarrollo de diseños que permitan: a) facilidad en la distribución del trabajo de desarrollo, con la menor comunicación de las partes; b) modificabilidad, permitiendo realizar cambios sobre un módulo sin alterar las otras partes y; c) comprensibilidad, permitiendo estudiar un módulo del sistema a la vez. Estas características elementales en el diseño de software se logran a través del diseño de sistemas cuasi-descomponibles, cuyo modelo teórico fue introducido por Simon en su búsqueda de una teoría general de los sistemas. En el campo del diseño de software, Parnas propone un camino práctico para lograr sistemas cuasi-descomponibles llamado el Principio de Ocultación de Información. El Principio de Ocultación de Información es un criterio diferente de descomposición en módulos, cuya implementación logra las características deseables de un diseño eficiente a nivel del proceso de desarrollo y mantenimiento. El Principio y el enfoque orientado a objetos se relacionan debido a que el enfoque orientado a objetos facilita la implementación del Principio, es por esto que cuando los objetos empiezan a tomar fuerza, también aparecen paralelamente las dificultades en el aprendizaje de diseño de software orientado a objetos, las cuales se mantienen hasta la actualidad, tal como se reporta en la literatura. Las dificultades en el aprendizaje de diseño de software orientado a objetos tiene un gran impacto tanto en las aulas como en la profesión. La detección de estas dificultades permitirá a los docentes corregirlas o encaminarlas antes que éstas se trasladen a la industria. Por otro lado, la industria puede estar advertida de los potenciales problemas en el proceso de desarrollo de software. Esta tesis tiene como objetivo investigar sobre las dificultades en el diseño de software orientado a objetos, a través de un estudio empírico. El estudio fue realizado a través de un estudio de caso cualitativo, que estuvo conformado por tres partes. La primera, un estudio inicial que tuvo como objetivo conocer el entendimiento de los estudiantes alrededor del Principio de Ocultación de Información antes de que iniciasen la instrucción. La segunda parte, un estudio llevado a cabo a lo largo del período de instrucción con la finalidad de obtener las dificultades de diseño de software y su nivel de persistencia. Finalmente, una tercera parte, cuya finalidad fue el estudio de las dificultades esenciales de aprendizaje y sus posibles orígenes. Los participantes de este estudio pertenecieron a la materia de Software Design del European Master in Software Engineering de la Escuela Técnica Superior de Ingenieros Informáticos de la Universidad Politécnica de Madrid. Los datos cualitativos usados para el análisis procedieron de las observaciones en las horas de clase y exposiciones, entrevistas realizadas a los estudiantes y ejercicios enviados a lo largo del período de instrucción. Las dificultades presentadas en esta tesis en sus diferentes perspectivas, aportaron conocimiento concreto de un estudio de caso en particular, realizando contribuciones relevantes en el área de diseño de software, docencia, industria y a nivel metodológico. ABSTRACT The software development companies look to reduce costs through the development of designs that will: a) ease the distribution of development work with the least communication between the parties; b) changeability, allowing to change a module without disturbing the other parties and; c) understandability, allowing to study a system module at a time. These basic software design features are achieved through the design of quasidecomposable systems, whose theoretical model was introduced by Simon in his search for a general theory of systems. In the field of software design, Parnas offers a practical way to achieve quasi-decomposable systems, called The Information Hiding Principle. The Information Hiding Principle is different criterion for decomposition into modules, whose implementation achieves the desirable characteristics of an efficient design at the development and maintenance level. The Principle and the object-oriented approach are related because the object-oriented approach facilitates the implementation of The Principle, which is why when objects begin to take hold, also appear alongside the difficulties in learning an object-oriented software design, which remain to this day, as reported in the literature. Difficulties in learning object-oriented software design has a great impact both in the classroom and in the profession. The detection of these difficulties will allow teachers to correct or route them before they move to the industry. On the other hand, the industry can be warned of potential problems related to the software development process. This thesis aims to investigate the difficulties in learning the object-oriented design, through an empirical study. The study was conducted through a qualitative case study, which consisted of three parts. The first, an initial study was aimed to understand the knowledge of the students around The Information Hiding Principle before they start the instruction. The second part, a study was conducted during the entire period of instruction in order to obtain the difficulties of software design and their level of persistence. Finally, a third party, whose purpose was to study the essential difficulties of learning and their possible sources. Participants in this study belonged to the field of Software Design of the European Master in Software Engineering at the Escuela Técnica Superior de Ingenieros Informáticos of Universidad Politécnica de Madrid. The qualitative data used for the analysis came from the observations in class time and exhibitions, performed interviews with students and exercises sent over the period of instruction. The difficulties presented in this thesis, in their different perspectives, provided concrete knowledge of a particular case study, making significant contributions in the area of software design, teaching, industry and methodological level.
Resumo:
Existe en el panorama edificado un patrimonio construido que se reconoce como Centro Comercial. Un conjunto entendido, en sentido genérico, como familia arquitectónica que tiene características propias y específicas que la identifican. El objeto de la presente tesis doctoral consiste en argumentar que este conjunto constituye un nuevo tipo en el panorama de las tipologías arquitectónicas. Un tipo con entidad propia, que se conecta a una forma diferente de entender la idea de modelo. Un concepto que va más allá de la consideración tradicional del término. Modelo virtual. Este tipo, que surge de una estructura teórica que hemos denominado teoría tipológica, se constituye en una herramienta más para el estudio y el desarrollo proyectual de los espacios arquitectónicos, tanto del propio Centro Comercial como del conjunto de la disciplina arquitectónica, como referencia legítima. El presente trabajo de tesis se inicia con un bloque introductorio denominado Método. Definimos en él una metodología que hemos llamado emocional. Trata de la oportunidad de la tesis. Del porqué de un título que recoge la palabra ignorada. Del interés que suscita el asunto en el contexto del momento presente. Oportunidad e interés en base a una vida profesional dedicada al mundo del Centro Comercial y a la importancia del patrimonio elegido como objeto de estudio. También ha sido un aliciente detectar como las planificaciones del territorio y de los ámbitos de las relaciones colectivas no han sido capaces de integrar un resultado satisfactorio. Quizás por no considerar la complejidad de sus muchas facetas. En consecuencia, el texto busca la esencia del Centro Comercial como soporte para la crítica de su impacto en los nuevos escenarios de relación que la sociedad y el entorno físico imponen. Ámbitos donde los mecanismos históricos del asociacionismo tradicional han dado paso a otros, como el Centro Comercial, de exaltación del individualismo, pero demandados por una sociedad que se identifica con ellos. Espacios que, con Galbraith, existen por de la perversidad intrínseca del binomio consumo-producción que inducen la perplejidad. Ésta pasa a formar parte de la esencia del nuevo espacio comercial, como quedó de manifiesto en el Congreso de Minnesota de 1997, sobre el Centro Comercial. Una sociedad que ha girado hacia el logro material en términos de culto, ocasionando creciente valor significante del consumo. Razón última de la humanidad al decir de Rem Koolhaas. Culto que desemboca en la urgencia de alcanzar niveles de estatus y de identificación con el grupo. Dos parámetros que marcan la relación con el otro. Relación de comparación que excita la necesidad de posesión de objetos que llevaban a recrear en el consumidor la ilusión de ser especiales, de no pasar desapercibidos. El producto de consumo, el objeto, se eleva a la consideración de valor social. En el Centro Comercial se venden valores. Marketing de valores. El deseo del individuo, no la necesidad, queda involucrado en el proceso. La oportunidad y el interés de este estudio surgen además para aclarar el significado de un espacio que sirve al consumidor y a su entorno. Un significado que alcanza sentido, entre otros, por la aparición de un nuevo contexto tras la Segunda Guerra Mundial. Suburbanización, automóvil, nivel de vida, un nuevo papel de la mujer. La Era del Consumo. Una era que genera la paradoja de un individuo con autodeterminación y autosuficiencia crecientes, en un mundo cada vez más condicionado y controlado por dinámicas de ofertas mediatizadas e ilimitadas. La arquitectura en este contexto ha de juzgarse por su relación con un hombre contemporáneo que camina hacia una progresiva excepcionalidad. Cerramos la presentación justificando el término ignorada que aparece en el Título de la Tesis. Subrayamos la escasa existencia de estudios estructurados que relacionen Centro Comercial y arquitectura. Realidad que se constata partiendo del libro de Pevsner, Historia de las Tipologías Arquitectónicas, de 1976. Analizamos también la aceptación que el Centro Comercial, valorado en algunos ámbitos como arquitectura populista. Primer Capítulo, los antecedentes. Se propone un recorrido histórico por la arquitectura comercial de todos los tiempos. El Documento busca concretar las características de la arquitectura comercial a lo largo de la historia para determinar relaciones entre ella y el Centro Comercial. Estas correspondencias van a permitir contestar la pregunta retórica que nos hacemos al inicio del Capítulo: ¿Es la arquitectura del Centro Comercial una arquitectura subsidiaria, o tiene personalidad propia independiente de la del mundo comercial? Con Zevi40, queremos dejar constancia que la relación arquitectura-historia es imprescindible en la tarea proyectual. Un análisis novedoso solo es posible desde la búsqueda de unas raíces auténticas. Así mismo, con Guy de Maupassant, estamos convencidos que “La arquitectura, a través de los siglos, ha tenido el privilegio de dar un símbolo a cada una de las épocas, de resumir con un pequeñísimo número de monumentos típicos, el modo de pensar, de soñar de una raza y de una civilización”. Este recorrido se inicia interpretando la arquitectura comercial minoica. Llegaremos, paso a paso, hasta el siglo XX, los grandes itinerarios comerciales y el Centro Comercial. Se descubren una serie de invariantes que permiten comparar y extraer conclusiones. Resulta novedoso constatar que el Centro Comercial nace para dar respuesta al hombre contemporáneo en su afán consumista. También lo es la rápida implantación y evolución del Centro Comercial en un corto periodo de sesenta años frente al ritmo sosegado de otras soluciones comerciales. Novedad es ver como el comercio y sus arquitecturas nacen abiertos, bajo tenderetes y el Centro Comercial se presenta cerrado. Así mismo, las referencias sacras constituyen un elemento de novedad para la reflexión, en un contexto materialista. Y tantas otras. En Minos, la óptica comercial ofrece otra visión de su legendaria cultura. ¿Palacio o plataforma logística?, gestión centralizada del intercambio, ¿vida pública y vida privada? Así, hasta llegar al siglo XIX. Sus las galerías y sus pasajes acristalados concebidos en primera instancia como medida de recomposición urbana. Espacio entendido desde lo público-privado, desde lo interior-exterior, desde el dentro-afuera, desde lo cerrado-abierto. Con los nuevos mercados de abastos, representan una revolución en el ámbito de la funcionalidad, de la máquina, de la gestión moderna y de las relaciones del ciudadano con la ciudad apoyado en base al intercambio de bienes de consumo. El Centro Comercial es heredero de esta transformación. El Gran Almacén, por otra parte, es el reflejo de otra gran revolución. La que va ligada a la producción y comercialización en masa, las comunicaciones, el precio fijo y el aumento del nivel de vida. El Centro Comercial reinterpreta estas situaciones insertándolas en un nuevo modelo de gestión. En el siglo XX, maestro en técnicas de venta, aparece el hipermercado. El Híper, con su carga de pedagogía, se incorpora al esquema orgánico del Centro Comercial. La tienda en si misma constituye la pieza base de dicho puzle orgánico. Es en esta época cuando la tienda empieza su despegue autónomo como arquitectura, aportando su experiencia. Tras ello, llegamos a las grandes rutas comerciales, que proponemos como metáfora del shopping. Cerramos el capítulo concluyendo con Eugenio Ferrer que “si establecemos una relación entre el espacio y el capitalismo, entonces podemos inferir que los espacios del consumo de masas (ECM) son configuraciones nuevas respecto al pasado (...), pero el sistema que lo introduce no lo es del todo”. Segundo Capítulo. Búsqueda de claves que permitan el reconocimiento del Centro Comercial. Llegados a este punto y con la perspectiva del tiempo cabe preguntarnos, ¿qué entendemos pues por Centro Comercial? ¿Cómo lo percibimos? Abordamos ahora el problema de la percepción del Centro Comercial y su significado. Además de constituirse en símbolo, referencia siempre presente, la eficacia del Shopping es una de las principales causas de su poder de atracción. El Centro Comercial resulta de la síntesis de la revolución del consumo y de la revolución de la gestión. Espacio eficaz del entretenimiento como destino. El usuario resuelve su vida cotidiana dentro de un hábitat que considera propio y que se entiende como el lugar hiperbólico de la transacción comercial. Espacio de la abundancia para el disfrute. Una arquitectura involucrada en esta eficacia. Su sentido del lugar no es otro que el Shopping, que se desenvuelve de forma análoga en todas partes. El hogar del consumidor. Las nuevas catedrales. Las catedrales del consumo. Destino místico. Lugar de peregrinación para el consumidor fervoroso. Espacio sagrado que integra al usuario en la cultura dominante. Cultura del consumo. Templos, donde el tiempo ha perdido su sentido. Paraíso. Un espacio donde la altura, la luz natural, la dimensión general refuerzan el carácter sacro de un espacio para una nueva religión laica. Un espacio seguro, protegido que nos acerca a ideas como la de útero materno, con su carga de calidez y de significación erótica aplicado al encuentro compra-comprador y, ligado a ello, la literatura especializada habla del Centro Comercial como nave espacial hiperesterilizada o de agujero negro que absorbe la energía cultural. Más allá, la simulación, donde se percibe un simulacro de ciudad. Simulacro coherente con todo lo que el Shopping desencadena a su alrededor. El lugar de los sueños, de la fantasía. Aquí los productos se han metamorfoseado en fetiches, en significados. Televisión tridimensional, donde el usuario actúa guiado por una pulsión similar al zapping. Espacio lúdico de la fascinación por comprar o de imaginar que se compra. Espacio de simulaciones que llevan a la ensoñación. Un nuevo lugar que sustituye al espacio cotidiano, con el señuelo de la protección, en un contexto imaginariamente público. Espacio de la hiperrealidad donde no se distingue la realidad de la fantasía, donde tras episodios de confusión y desconcierto, se borran las fronteras con lo imaginario. Espacio mágico, escenario del gran espectáculo del consumo, controlado milimétricamente, al modo de la visita a un gran monumento, que ha de sobrevivir a los tiempos para dar testimonio de nuestro momento. Un icono, un símbolo que transmite un mensaje, que solo el consumidor es capaz de interpretar. Una agitada mezcla, sin precedentes, de percepciones que hablan de perplejidad y asombro ante el fenómeno del Centro Comercial, su espacio y las reacciones del hombre contemporáneo. ¿Cuáles serían las claves que nos permitirían reconocer la calidad esencial de un Centro Comercial, en esta concurrencia de perplejidades? Primero, la función de servicio. Un espacio donde ocurren muchas más cosas que lo obvio, que la compra. Un edificio que se involucra con el entorno de la mano de lo inesperado, la sorpresa y las expectativas. Esta vocación de servicio conecta Centro Comercial y naturaleza arquitectónica. Función que sugiere percepciones ligadas a la experiencia de compra. Organismo que vive y late al unísono con su visitante, colocándose al servicio de sus necesidades, de su afán de consumo, del que vive. Segundo, la comunidad servida. El Centro comercial sirve a una sociedad concreta. La sociedad consumista. Una nueva sociedad que se identifica con el edificio desarrollando un sentido de comunidad al nivel de sus deseos. Esta comunidad que se configura a su alrededor, constituye el activo más poderoso para el éxito de su realidad cotidiana y de su futuro. Tercero, un compromiso de carácter holístico. La economía de la experiencia aplicada al afán consumista de una sociedad identificada con su Centro, da lugar a una experiencia holística planificada. Diseño emocional. Colaboración para el éxito de un conjunto de establecimientos comerciales que participan en la aventura espacio-comercial del Centro Comercial. Ellos son los inductores primarios del consumo. Pero esta colaboración tiene su culminación en la amplificación del mensaje, como un inmenso altavoz, que proviene de la unidad configurada por todos ellos. El reflejo de esta amplificación de mensajes, desde la poderosa unidad constituida, es el aumento de la rentabilidad, fin último de la operación. Cuarto, la forma a través de una identificación de carácter gestáltico. Desde la lectura gestáltica que hacemos de la unidad holística, se advierte una poderosa capacidad de comunicación del sistema con su contexto. Centro y entorno se tornan entonces cómplices que complementan sus realidades. El Centro Comercial, arquitectura estructurada como sistema se percibe –ha de percibirse- como forma unitaria que procede de una mirada de raíz gestáltica que continuamente la recompone desde una óptica espacial y física, ligada a la experiencia individual. Esta unidad formal, más allá de la forma real, se constituye en esencia de de su arquitectura. Quinto, el Centro Comercial como sistema. Un sistema soportado por la Teoría General de Sistemas. La consideración del Centro Comercial como sistema es consecuencia de su estructura holística. El todo no se comporta como la suma de las partes y estas no lo hacen como lo harían en solitario. De aquí surge la necesidad de diálogo permanente entre la comercialización –proceso de incorporación de partes- y su traducción al mundo del diseño –proceso de articular arquitectónicamente las partes. Como sistema así configurado, el Centro Comercial se inserta en el paradigma contemporáneo, lo que genera realidades duales que no son excluyentes y reacciones de perplejidad e incertidumbre que el sistema corrige con su capacidad de autorregulación. Aparece también el espectador cuántico, el visitante, el consumidor, que interactúa con el sistema. Desde las herramientas que nos aporta la idea de sistema complejo, afrontamos el Mix Comercial -en definitiva la eficaz localización de las piezas en orden a sus relaciones y al organismo resultante- y su incidencia en la arquitectura que estamos concibiendo. Una arquitectura impredecible por lo mutable, que se erige en reto de la operación y del diseñador. Diseño que, de la mano del concepto de sistema se convierte en herramienta a mayor gloria de la operación global. El debate del estilismo no será más que el resultado del análisis en busca del éxito de esta operación. Sexto, una arquitectura de la negociación. Negociación como mecanismo proyectual y como resultado. La solución de proyecto nunca resulta evidente en el Centro Comercial como consecuencia de lo imprevisible del propio proceso de configuración. Su concreción solo puede ser fruto del compromiso de todos los agentes por conseguir el objetivo de la operación. Esto se consigue desde el equilibrio de intereses. Comerciales y de diseño. Un compromiso con la negociación y una negociación íntimamente ligada a la coordinación. Séptimo, el espacio y el tiempo. El debate espacio-tiempo condiciona y estructura la percepción del Centro Comercial. Introducimos conceptos como cronotopo –el instante y el lugar donde ocurre algo- y paradoja –incoherencia de la relación causa efecto- que sitúan el vínculo entre el tiempo y el espacio del Centro Comercial en un contexto de Shopping. En el discurrir paralelo del tiempo histórico –el tiempo de fuera- y del tiempo interior, el de dentro del Centro Comercial –tiempo presente o intemporalidad-, se produce el triunfo social del Centro Comercial que se traduce en haber sabido resolver en el espacio y en el tiempo las paradojas postmodernas del hombre contemporáneo. Octavo, de lo global. Globalidad que no es ajena a lo local. Una arquitectura que insertada en la dinámica de una economía de ámbito mundial, refleja las contradicciones que ella impone, fundamentalmente en los procesos de inclusión y exclusión, afectando de manera decisiva al debate de lo local, que el Centro Comercial debe incorporar como herramienta ineludible de reconocimiento. Terminamos el capítulo segundo manifestando como estas ocho claves, asumidas en su conjunto, confirman que el Centro Comercial puede aparecer como un todo conceptual cohesionado, pasando a formar parte de una familia arquitectónica coherente, cuya estructura funcional somos capaces de establecer. El Capítulo Tercero presenta con detalle la figura del arquitecto Víctor Gruen, creador reconocido del moderno Centro Comercial. Presentamos su trayectoria profesional observando como las diferentes claves analizadas en capítulos anteriores van apareciendo de manera natural a lo largo de ella "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. Hombre complejo, conflictivo. Las paradojas a lo largo de su carrera fueron notables. Sin embargo siempre apareció como un hombre recto. Garret Eckbo, reconocido paisajista y colaborador de Gruen en el Centro Comercial peatonal del Centro urbano de Fresno, California, se asombraba de que alguien como Gruen hubiese sido capaz de combinar cortesía y humanidad en la carrera de ratas (sic) en la que se convirtió el universo de la comercialización americana y mantener la integridad542. Philip Johnson, en 1962, ponderando las muchas habilidades de Gruen manifestó que no estaba seguro si alguno de ellos, arquitectos artistas, hubiera sido capaz de hacer lo que Gruen hizo. A más, sobre Gruen, manifestó lo siguiente: "... El va más allá de la creación de un bello edificio. En jugar con la gente y sugerir lo que tienen que hacer, es un maestro. Y obtiene buenos resultados como hace la escultura. El suyo es un arte cívico, un sentido cívico.... Él es capaz de sentarse y poner cosas juntas. No es pomposo ni vano. Yo no me reuniría con él para hablar del diseño (de edificios). Víctor siente que cuando se habla de diseño se está ignorando todo el contexto... Su arquitectura es poderosamente limpia, no vuela la fantasía. Pero cuando te haces con su complejidad, ves que has descubierto algo más allá del diseño.... No puedes decir que haya alguien como él. La arquitectura tiene la suerte de tenerle como arquitecto..." Philip Johnson. Article in Fortune Review. 1962. El Documento de tesis cierra la visión de Gruen realizando un recorrido por los diferentes capítulos de su libro esencial, Shopping Towns Usa: The Planning of Shopping Centers. Solo su índice resulta un monumento al proceso de gestación del Centro Comercial. El libro, aquí simplemente mostrado en su estructura básica como un silencioso testigo, es la referencia canónica los Centros Comerciales contemporáneos, desde su aparición. . El Cuarto Capítulo del Documento de tesis es una recapitulación del trabajo anterior, en el que se sintetizan los conceptos de función y estilo relacionados con el Centro Comercial, se define en qué consiste cada uno de ellos y como, a partir de ahí, podemos afirmar que nos encontramos ante un tipo arquitectónico nuevo en el panorama de la disciplina arquitectónica. Terminamos el Capítulo integrando el Centro Comercial con un cuerpo teórico de referencias que se remiten a un tipo arquitectónico concreto y particular, acogiendo su singularidad como fenómeno arquitectónico autónomo. Como Conclusión de la tesis, resultado de todo lo anterior es decir, como consecuencia de la integración de un torrente de percepciones e intuiciones en un cuerpo teórico de referencias, deducidas de la existencia de unas claves que estructuran y penetran la esencia del singular modelo estudiado, haciéndolo detectable y seductor, resultan las características de un tipo arquitectónico con entidad propia que ordena, orienta y supedita la realidad y la existencia de esta nueva arquitectura. Una arquitectura nunca antes definida como tal, en el panorama tipológico de la disciplina. Teoría tipológica para una nueva arquitectura, que hemos ido proponiendo a lo largo del trabajo y que es coherente con los diferentes parámetros que se han analizado. Un conjunto edificado que, desde el estudio de sus claves esenciales y de sus invariantes perceptibles, aparece ahora más cercano, más familiar. Tanto que es posible destilar desde este conocimiento cercano e íntimo, una síntesis útil como referencia proyectual y como referencia para las grandes cuestiones que preocupan al discurrir del debate arquitectónico y sus ideas. El debate de la disciplina. El objeto de esta tesis, que consistía en establecer que el conjunto edificado que conocemos como Centro Comercial se constituye en un nuevo tipo en el panorama de las tipologías arquitectónicas, entendido el Centro Comercial en sentido genérico como familia arquitectónica con características propias y específicas que la hacen autónoma y reconocible, queda a nuestro juicio argumentado y justificado. ABSTRACT Within the frame of the built heritage there is a construction that is recognized as Shopping Center. An ensemble understood as an architectural family with its own specific recognizable characteristics. This thesis aims to explain that this building complex constitutes a new type in the panorama of architectural typology. This typology, with its singular identity, is connected to a way of understanding the idea of the model beyond an orthodox conception of the term understood as virtual model. This typology comes from a theoretical structure that we called typological theory, and it serves as yet another tool to reference the study and development design of the architectural spaces. In this first section, the Method, we emotionally explore the opportunities of this thesis. Why this typology has been ignored and the interest this work has in the present moment. An opportunity and an interest explained from an experience of a life dedicated to the world of Shopping Centers. The text then introduces the need for a rigorous knowledge of the Shopping Center’s essence in order to understand its impact in the frame of a new society and a new physical environment. A frame time where the historical mechanisms of association of civic community have given way to other gathering spaces like the Shopping Center, which encourages individualism, but is demanded by a society that relates to them. Spaces that, according to Galbraith, are a result of the intrinsic perversity of the unstoppable movement of the wheel of consumption-production. A society that has turned to worship of material achievement. Worship that provokes the appearance of an increasing value of consumption, according to Koolhaas, the only goal of humanity. Worship that ends in the need to reach certain status levels in the plane of a permanent comparison where the need of possession excites the consumer and gives them the illusion of being special. The product of consumption rises up to consideration of social values, entering a dynamic of marketing values, not only objects, but the desire of the individual remains. The study appears also to clarify the meaning of a space that serves the consumer and its context. A meaning that makes sense with the appearance of the suburbanization, the massive utilization of the car, the increase of living standards and the new role of women in the society after the Second World War, giving rise to the Age of Consumption. A world now determined and controlled by media and unlimited offers, where it’s necessary to place them in the context of the ordinary. An architecture that has to be judged precisely for its relation with this specific contemporary man. This section ends justifying the term ignored that appears in the Title of the Thesis, considering it in relation with the lack of studies structured about the Shopping Center and its architecture, drawing from Pevsner's work, A history of building types, 1976. Finally, the Shopping Center is analyzed with the most critical of thoughts, which considers it as populist architecture. The First Chapter, Precedents, proposes an historical tour of the commercial architecture throughout history. The Document looks to place on record the characteristics of the commercial architecture to set the connection between them and the Mall itself. These correspondences are going to allow us to answer the rhetorical question: is it the architecture of the Shopping Center a subsidiary architecture, or does it have its own personality independent from that of the commercial world? The reason of this historical search, citing Bruno Zevi, is that it is indispensable to establish the relationship between architecture and history, understating that an analysis is only possible when researching for their roots. Moreover, according to Guy de Maupassant, we are sure that architecture has had the privilege, across the centuries, of symbolizing as it were each age(…), through the harmony of lines and the charm of ornamentation all the grace and grandeur of an epoch. This historical reading, inseparable from a consistent design action, begins interpreting the commercial architecture of the Minoan to the 20th Century. Though this analysis of the big commercial itineraries and the study of the Shopping Center itself. A reading where we have found a series of constants that make it possible to draw conclusions from this comparison. The Mall appears to give response to the needs of a consumerist society. Comparing to the calm pace of the evolution of other commercial solutions, it is relevant its fast implantation and evolution in a short period of sixty years. Though via different solutions, the commercial spaces are considered taking into account the public-private relation, the interior-exterior, the inside-out, the closed-opened. Through that, the 19th century galleries and the food markets represent a revolution in functionality, in the machine, the modern management and the relations of the citizen within the city. All of this, the Mall inheritor feels. Likewise, the Department Store is the reflection of another great revolution. Production and commercialization en-mass, communications, the fixed price and increase of the living standard. The Mall reinterprets these situations inserting them in a new model of management. Already in the 20th century Mall and mass technologies of sale, the hypermarket is enthusiastically incorporated into the configuration of this organic scheme, constituting the base of one of the models, the French, that will be highly developed in the European continent. The shop itself constitutes, on the other hand, the key piece that completes the puzzle of the Mall and is in this epoch when it starts taking off as architecture, has an autonomous character. After all this, finally, we come to the big commercial routes, which we propose as metaphor of the shopping. Citing Eugenio Ferrer we can conclude that “If we establish a relation between the space and the capitalism, then we can infer that the spaces of the consumption of masses (ECM) are new configurations with regard to the past (...), but the system that introduces it it is not completely” Now we arrive at this point and with the perspective of time it is necessary to ask us, what do we understand about the Shopping Center? How do we perceive it? The second Chapter approaches the problem of the perception of the Mall and from this it is possible to detect and to identify key drivers that orientate the architectural comprehension of the space. The efficiency of the Shopping Center is its main power of attraction. A world that has ensued from the synthesis of the revolution of consumption and management. An effective cavern-like place of entertainment where the user, the consumer, the postmodern man solves his daily life inside a considered habitat. The hyperbolic place of commercial transaction. An abundance of space, that makes us perceive it as destination of entertainment. An architecture has evolved this efficiency, where the sense of place is at one with the sense of the Shopping. The home of the consumer. The new cathedrals. The cathedral of consumption. The place of peregrination for the fervent consumer. A sacred space that integrates the user in the dominant culture. A temple, where time itself has stopped existing. In this paroxysm, an expression of the Garden of Eden or Paradise itself. A space where the height, the natural daylight and the spatial dimension reinforce the sacred character of a new lay religion. Another common perception is that of a protected area, which leads to metaphors and considerations that suggest the idea of maternal womb, with its weight of erotic meaning, referring to the encounter of the shopper making a purchase. The literature also tells us about its perception as a sterile space capsule, a black hole that absorbs all cultural energy. Likewise, a world simulation where a mock city is perceived at first instance. Consistent with all that shopping triggers inside. A city, a space conceived as a place of dreams, fantasy, where the products have been metamorphosed into fetishes. Entertaining a television, three-dimensional television, where the user acts guided by a drive similar to zapping. A play area where the latest fascination is in the act of buying. Space simulations that unite and transcend creating atmospheres that lead to reverie. A new space replacing the daily space with the lure of safe space in a public context. A hyper-reality space with reality and fantasy, where borders are erased with imaginary episodes of confusion and bewilderment, without distinction. The charm and fascination of a space that reads like magic. The magic of a space which is defined as stage extravaganza, the large theatre, the consumer surveys in the fine control mode in which you visit a national monument. The shopping center has to survive the times to be a testimony of our time. An icon, a symbol that conveys a message, the message reads ‘consumer’. In short, a Shopping Center is a mix of unprecedented insights that speak of a widespread phenomenon of bewilderment. Its space and the reactions of contemporary man unfold in it like a fish in water. What are the key aspects which allow us to recognize the essential quality of a shopping center in this concurrence of perplexities? First, we want to record a service function of space much deeper than the immediately obvious, i.e. a purchase occurs. A building that appears to be involved with the environment and its people from the hand of the unexpected circumstances; surprise and attention. And that, in turn, also involves the visitor beyond the purchase. This dedication to service closely links the mall with its architectural nature. It is not the function of a lifeless machine. It is a feature that suggests unsuspected perceptions linked to the purchase, which speaks of an organism that lives and breathes in unison with the visitor. Second, in addition to the vocation of service-oriented desire for consumption, the Mall environment serves a particular society - The consumer society. A new society which relates to building a sense of community developed to the level of their desires. This community also constitutes the most powerful asset to the success of the daily life of the Shopping Center. Third, we emphasize that the so called economy of the experience is combined with the consumer zeal of a company that is identified by the Shopping Center. It connects to form a holistic and planned experience. This experience takes shape in the entity that ensues from the premeditated association and synergy, in the sense of a collaboration for success. A set of concrete commercial and independent establishments, take part in the spatial and commercial adventure that is the Mall and they are the instigators of the consumption. This holistic behavior finds culmination in the amplification of a claim that becomes unitary, like an immense force that leads to an increased profitability to all the levels. Consummation is a reference of one human being overturned in an architecture assimilated into a legitimate, emotional design with stability. A holistic quality is born of the essence of the building - and by virtue of the Conditions of Alexander, Christopher Alexander, determines the system condition of the Shopping Center. Fourth, we propose to establish what character the Mall will form when joined with the concept of its typology. This is going to allow the architectural work to be formed. As a result of the holistic structure that we see, the Mall is perceived as a system whose parts have their own function, justifying their existence in the ecosystem. Across a gestalt there is a powerful capacity of communication between the system and its context. We visualize on the one that stands out our building, turning both, Center and environment, in accomplices of a few special relations who complement each other in his realities. This relationship within a complex and diverse environment gives the Mall a range of unique spatial perceptions, the result of disparate experiences, which because of its root origin of gestalt, are integrated into a unified and coordinated manner fully intelligible and organized. This is the final formal essence of the Shopping Center. We can conclude here that the Mall as architecture is a structured system and should be perceived as a unit both from a physical and spatial perspective as this is the essence of its architecture. Fifth, the Mall as a system. A system which is being supported by a broad theoretical corpus, the General Systems Theory, which offers sufficient methodology to descend into consideration and give an enlightened conclusion on the overall understanding of the Mall. Consideration of the Mall as a system is a result of its holistic structure. The whole does not behave like any of the parties and they do not behave the way they used to before belonging to the whole, because they inhibit many of their qualities to their advantage. It arises the need for an ongoing dialogue between marketing processes and its translation into the physical world, the design. The system generates multiple perceptions to be integrated into a body which is to be understood as unitary. As a system, the Mall is inserted into the contemporary paradigm, creating dual realities that are not exclusive and are reactions of uncertainty that the system be properly designed at all levels, faced with their ability to self-regulate. Likewise, considering the visitor, the customer, like the quantum spectator who interacts with the system permanently. Moreover, a complex system confronts us with the Commercial mix, the effective location of parts in order to relate to the body and its importance in the architecture we are conceiving. Unpredictable architecture, which stands as the challenge of the operation and the designer. Design that becomes the tool of the system to create success for the overall operation. The discussion of the styling is merely the result of analysis that also seeks the success of the system, i.e. the styling should send the right message for the environment to ensure its survival. Sixth, the idea of negotiation as an architecture project, a mechanism inherent to the status of the proposed system. The project solution is never evident at the Shopping Center because of the unpredictability of the process itself. It can only be the fruit of the commitment of all stakeholders to achieve the objective of the operation. This is achieved from the balance of interests, of commercial and design. A commitment to negotiation and a negotiation linked to coordination. The pursuit of stability is key, as instability is always present and constantly requires strategies to build the object you are configuring. Seventh, proposes space-time itself as a circumstance that determines and structures the perception of the Mall in a singular way. We introduce concepts as chronotope and paradox to help us place the relationship between time and space within the Mall in the context of shopping. A consequence of the parallel flow of historical time - the time outside - and the time inside the Mall, the big shopping center formula is precisely that of having the feeling of timelessness in the space. The social triumph of the mall is the ability to resolve in space and in time all postmodern paradoxes and, beyond that, of contemporary man, condensing into a small space and time an enormous amount of cultural symbols, often contradictory, but they attract the practice of consumerism. Eighth, global level. Globalization which doesn’t ignore the local level. Architecture that is inserted into the dynamics of a global economy, reflects the contradictions that it imposes, mainly in the processes of inclusion and exclusion. Inclusion and exclusion affect the debate of the local level, which the Mall must incorporate as an unavoidable tool of recognition. The eight fundamental principles, when applied as a whole, confirm that the built heritage, which corresponds to the general Mall idea, can be presented as a cohesive conceptual whole. This becomes part of a coherent architectural family, whose functional structures are able to be established. The Third chapter presents in a detailed way the figure of the architect Victor Gruen, recognized as the creator of the modern Mall. Studying his professional experience, it is shown how the different keys analyzed in previous chapters are appearing in a natural way. "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. He was a complex, troubled man and the paradoxes along his career were notable. Nevertheless, always he appeared as a straight man. Garret Eckbo, the recognized landscape painter and collaborator of Gruen was astonished how Gruen had been capable of combining comity and humanity in this career of rates, into that the American commercialization turned, Johnson, in 1962, weighting many Gruen's skills demonstrated that he was not sure if anyone of them, architects artists, had been capable of doing what Gruen did. He goes beyond just the creation of a beautiful building. In playing on people and suggesting what they ought to do, he is a master. (…) his architecture is clean - hardly architecture, no flights of fancy. But when you get hold of its complexity, you've got something beyond the design... You can't say there's someone like him. Architecture is lucky to have him as an architect." Philip Johnson. Article in Fortune Review. 1962. The Document of the thesis closes with Gruen's vision of realizing a tour through the different chapters of his essential book, Shopping towns USA: The Planning of Shopping Centers. It’s mere index turns out to be a monument to the process of the gestation of the Mall. The book, simply acted in its basic structure as a silent witness, as the canonical reference for the contemporary Malls. The Fourth Chapter of the Document of the thesis is a recapitulation of the previous work, which synthesizes the concepts of function and style related to the Shopping Center, and clearly defines how they are defined so we can conclude that we have found an architectural new type in the panorama of the architectural discipline. Therefore, the Conclusion of the thesis integrates this development in a theoretical body of references that relate to an architectural specific and particular type, which receives the singularity of the Shopping Center as an architectural independent phenomenon as it has tried to demonstrate from the beginning of the work. To conclude, as a result of the integrative process and the development of the theoretical body of references, the essential characteristics of the order and concept of the architectural typology form the existence of a new architecture; architecture never before defined as such, in the theoretical typology of the discipline. A theoretical typology for a new architecture is proposed throughout the discussed research and forms a conclusion of the different parameters that have been analysed. As a building complex, from the study of the essential characteristics and of the perceptible constants, the typology is more clearly defined and thus, becomes a useful tool and precedent for the consideration of the discipline. The thesis then justifies how the building complex known as Shopping Center constitutes a new type of architectural typology.
Resumo:
Este Proyecto Fin de Carrera trata sobre el reconocimiento e identificación de caracteres de matrículas de automóviles. Este tipo de sistemas de reconocimiento también se los conoce mundialmente como sistemas ANPR ("Automatic Number Plate Recognition") o LPR ("License Plate Recognition"). La gran cantidad de vehículos y logística que se mueve cada segundo por todo el planeta, hace necesaria su registro para su tratamiento y control. Por ello, es necesario implementar un sistema que pueda identificar correctamente estos recursos, para su posterior procesado, construyendo así una herramienta útil, ágil y dinámica. El presente trabajo ha sido estructurado en varias partes. La primera de ellas nos muestra los objetivos y las motivaciones que se persiguen con la realización de este proyecto. En la segunda, se abordan y desarrollan todos los diferentes procesos teóricos y técnicos, así como matemáticos, que forman un sistema ANPR común, con el fin de implementar una aplicación práctica que pueda demostrar la utilidad de estos en cualquier situación. En la tercera, se desarrolla esa parte práctica en la que se apoya la base teórica del trabajo. En ésta se describen y desarrollan los diversos algoritmos, creados con el fin de estudiar y comprobar todo lo planteado hasta ahora, así como observar su comportamiento. Se implementan varios procesos característicos del reconocimiento de caracteres y patrones, como la detección de áreas o patrones, rotado y transformación de imágenes, procesos de detección de bordes, segmentación de caracteres y patrones, umbralización y normalización, extracción de características y patrones, redes neuronales, y finalmente el reconocimiento óptico de caracteres o comúnmente conocido como OCR. La última parte refleja los resultados obtenidos a partir del sistema de reconocimiento de caracteres implementado para el trabajo y se exponen las conclusiones extraídas a partir de éste. Finalmente se plantean las líneas futuras de mejora, desarrollo e investigación, para poder realizar un sistema más eficiente y global. This Thesis deals about license plate characters recognition and identification. These kinds of systems are also known worldwide as ANPR systems ("Automatic Number Plate Recognition") or LPR ("License Plate Recognition"). The great number of vehicles and logistics moving every second all over the world, requires a registration for treatment and control. Thereby, it’s therefore necessary to implement a system that can identify correctly these resources, for further processing, thus building a useful, flexible and dynamic tool. This work has been structured into several parts. The first one shows the objectives and motivations attained by the completion of this project. In the second part, it’s developed all the different theoretical and technical processes, forming a common ANPR system in order to implement a practical application that can demonstrate the usefulness of these ones on any situation. In the third, the practical part is developed, which is based on the theoretical work. In this one are described and developed various algorithms, created to study and verify all the questions until now suggested, and complain the behavior of these systems. Several recognition of characters and patterns characteristic processes are implemented, such as areas or patterns detection, image rotation and transformation, edge detection processes, patterns and character segmentation, thresholding and normalization, features and patterns extraction, neural networks, and finally the optical character recognition or commonly known like OCR. The last part shows the results obtained from the character recognition system implemented for this thesis and the outlines conclusions drawn from it. Finally, future lines of improvement, research and development are proposed, in order to make a more efficient and comprehensive system.
Resumo:
En los últimos años es notable la proliferación de trabajos y estudios que tratan sobre las características del hormigón reforzado con fibras, sin embargo su incorporación en el proyecto no está del todo claro, por lo que el presente trabajo se enfocará en describir las fibras y las principales características que estas modifican en el comportamiento del hormigón, tomando en consideración la Normativa EHE-08 y el Código Boliviano del Hormigón (CBH-87).También, trata de implementar el hormigón reforzado con fibras en la elaboración del proyecto, teniendo en cuenta la incidencia de las fibras en las diferentes etapas del mismo. Se compara la influencia del hormigón reforzado con fibras en las diferentes etapas de la elaboración del proyecto en España con la de un proyecto elaborado en Bolivia. Por último, se describen los aspectos a considerar en el control de calidad del hormigón reforzado con fibras a incluir en el proyecto, para una correcta utilización del mismo.