242 resultados para Lumière en architecture


Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Arquitectura industrial del tabaco en España está representada por dos tipos de construcciones, que corresponden a las dos fases en las que se divide el proceso de producción del tabaco: los secaderos (arquitectura bioclimática donde se realiza el secado), y las fábricas (centros donde se elabora el tabaco procedente de los secaderos). Las fábricas se repartieron por todo el territorio español, ocupando preferiblemente los lugares costeros, aunque existen casos en los que su localización obedecía a razones políticas. Estos edificios, en su mayoría, incluidos en los centros históricos de las ciudades, han cambiando de uso, y las antiguas fábricas de tabaco se han transformado en su mayoría, en centros de cultura, o centros sociales y representativos. La tesis surge del análisis de las características constructivas de la arquitectura industrial del tabaco: de los secaderos y de las fábricas, por tratarse de una tipología con suficiente entidad y un ejemplo de arquitectura bioclimática de producción en el caso de los secaderos, y por conseguir haberse adaptado a otros usos en el caso de las fábricas. La arquitectura de producción emplea un lenguaje acorde con los avances de la industrialización, anticipando materiales y estructuras, y condensando en una tipología específica las complejas relaciones establecidas entre producto, hombres y espacio. Estos edificios tuvieron una extensa implantación en el territorio, y se caracterizan por una serie de valores tecnológicos, arquitectónicos, sociológicos y paisajísticos, que hacen de ellos un documento de primera magnitud para conocer: la evolución e implantación de las técnicas constructivas (materiales y estructuras), los procesos de innovación tipológica y la estructura económica y procedimientos técnicos utilizados. El territorio en el que se insertan constituye su contexto territorial, por lo que no sería adecuado considerar estos edificios como elementos aislados, sin analizar la relación con el entorno en el que se generaron. Por este motivo, se analizan las condiciones higrotérmicas ambientales de los secaderos para compararlas con las de confort humano y establecer relaciones y parámetros compatibles. Los ejemplos analizados de secaderos son todos de fábrica. El uso del ladrillo como módulo principal para la elaboración de un edificio, supone la consideración de un “grado cero” de todo el aparato constructivo y compositivo de la arquitectura. Dejar el ladrillo visto, supone hacer explícitos todos los procesos acumulativos. Este elemento mínimo, permite unas posibilidades enormemente abiertas, pero no absolutamente aleatorias, que definen su propia lógica combinatoria. La exigencia de sinceridad, característica de la arquitectura industrial, en la exposición de los materiales, exhibiéndolos en su propia naturaleza y en el modo real de ser utilizados, se hace patente en este tipo de construcción. Se realiza un estudio de permeabilidad en las fachadas de los secaderos, para determinar el grado de ventilación y su relación con la orientación, el patrón de celosía empleado y el volumen total. Este sistema de acondicionamiento climático específico, puede servir de recurso a otras construcciones, por lo que se podría trasladar el sistema constructivo y formal de los secaderos a otros usos, desde una doble vertiente: Arquitectura para la adaptación climática al entorno. Arquitectura como generadora de condiciones climáticas específicas, en el interior. La utilidad de los secaderos es fundamentalmente: proporcionar sombra, ventilación y un espacio cubierto, pero permeable en sus fachadas. La arquitectura industrial debe ser reconocida dentro del conjunto patrimonial, debido a sus características propias que permiten su diferenciación del resto de la arquitectura. Conocer la estructura productiva permite analizar correctamente estas construcciones, ya que el programa inicial es básico para entender la organización del espacio interior. Las fábricas no se situaron cerca de las zonas de producción del tabaco, excepto en dos casos: Cádiz y Palazuelo, en los que existen secaderos y campos de cultivo de hoja de tabaco en las áreas cercanas. La principal causa de esta separación es que el proceso de obtención de tabaco es un proceso dividido en dos fases principales: proceso primario y proceso secundario. En el proceso primario la hoja de tabaco se seca en los secaderos, en los que es determinante el clima, pero únicamente en el caso del secado del tabaco al aire. En el proceso secundario sin embargo, el tabaco llega previamente tratado a las fábricas, por lo que no influye el clima en esta parte del proceso. Esta razón determina que en las áreas climáticas donde se centra el estudio, haya zonas en las que existen fábrica y secaderos y otras en las que únicamente existe fábrica, o sólo secaderos. La localización de las fábricas atendía a razones de muy diferente índole, las más importantes fueron: geográficas, estratégicas, y políticas. En la mayoría de las fábricas la elección de la ciudad de emplazamiento estaba ligada a la recepción de la materia prima, que principalmente se hacía por vía marítima, o acuática (el caso de Sevilla), y por vía terrestre, utilizando como medio de transporte el ferrocarril. Sólo dos casos, de las antiguas fábricas, corresponden a razones políticas, son las dos únicas que no están en la costa: Madrid y Logroño. La de Madrid se construyó por centralidad política, y porque geográficamente ocupaba el punto central de todas las comunicaciones terrestres por carretera y ferrocarril. Muchas de las fábricas se situaron cercanas a las estaciones de ferrocarril. La de Logroño atendió, sin embargo, a razones políticas. Para finalizar, se realiza un estudio comparativo de las fábricas de Sevilla, Madrid y San Sebastián. Las razones que justifican esta elección son: - La de Sevilla fue históricamente la primera fábrica y la más importante. - La de Madrid fue la más importante a nivel administrativo, la sede de Tabacalera se instaló en la capital, y después de la de Sevilla, fue la que sirvió de modelo al resto de las fábricas. - La de San Sebastián era la más grande del Norte. Los análisis que se han realizado son de: volumen y superficies de patios, superficies de cubierta, permeabilidad o huecos en fachadas, orientación y soleamiento de patios, distribución espacial interior y organización, y evolución de usos. Podemos observar que en la mayoría de estas fábricas ha habido una transformación en el uso, pasando de ser edificios industriales a edificios culturales. Estas construcciones se pueden considerar como infraestructuras adaptables, por ser útiles, sostenibles y funcionales. ABSTRACT The Spanish industrial architecture of tobacco is represented by two construction types that correspond to the two phases of tobacco production: the drying sheds (bioclimatic constructions where the drying process takes place) and factories (centres where tobacco is processed after the drying process). The factories were distributed throughout the Spanish territory, preferably occupying coastal locations, although some of them were located elsewhere following political reasons. Most of the buildings inside city centres have suffered changes in their use, becoming cultural, social or representative centres. This thesis attempts the analysis of the constructive systems employed in tobacco industrial architecture, from drying sheds to factories. The drying sheds are an example of bioclimatic industrial architecture. The factories are a typology that have successfully adapted to new uses. Industrial architecture uses a language that follows the advances in industrialization, anticipating new materials and structures, and merging the complex relationships established among products, human beings, space and locations. These buildings were promoted extensively in the country. They are characterized by technological architectural sociological and landscaping innovations. They are considered as important examples of the evolution and the implementation of construction techniques (building materials and structures). They are also considered as examples of innovation in the building typology, in their economic structure and in the technologies that they have applied. The settings in which the drying sheds are placed have an important influence in them. They cannot be considered as isolated elements. Instead, there is a close relationship between drying sheds and the surroundings in which they are located. Drying sheds’ hygrotermal and environmental conditions are analyzed in this thesis to compare them with the values of human comfort and find suitable relationships and parameters. All the drying sheds that have been analyzed are constructed with brick. This implies a consideration of “zero degree” for both the construction and the composition of the architectural process. The detailing - entails making all the accumulative processes explicit as the brick walls are left exposed. This minimal component allows a wide range of options that are never random but based on the logic of the way in which it is combined. The “sincerity” in the exposition of material, displaying them in their very nature and showing how they are really used, is a basic characteristic of industrial architecture, and it is even more expressive in these types of buildings. The walls of the drying sheds undergo a permeability assessment in order to determine the degree of ventilation and orientation, the lattice pattern used and the overall volume. This specific conditioning system can serve as a resource for other buildings, and consequently, it could be transferred to other uses within a two-pronged approach: -Climatically adapted architecture that takes into account the surroundings. -Architecture as a generator of specific climatic conditions indoors. Drying sheds’ main purposes / aims deal with how to provide shade, ventilation and a covered space as well as permeability. The industrial architecture must be recognized as historical valuable buildings due to its intrinsic and distinctive characteristics. Knowing the productive structure, allow us to make a proper analysis of these buildings, since the basic aim, is to understand the spatial organization indoors. Factories did not come close to the tobacco production, with the exception of Cádiz and Palazuelo, where there are sheds and tobacco croplands nearby. The main reason for this separation is that the process of obtaining tobacco has two processes: the primary process and the secondary process. In the primary process tobacco leaves are left to dry. In the secondary process, previously manufactured tobacco allocated in the factories where the weather conditions are not important. This fact determines that in the climate areas where this study tales place there are some cases in which we can find both factories and drying sheds, and others where there are either factories or drying sheds only. The location of these factories met various demands, being the most outstanding the ones related to geographic, strategic and political reasons. In most factories the choice of its location was often linked to the incoming of raw goods, mainly delivered through waterways –it is the case of Seville,) and by land, using railways. The location of the factories was linked to political reasons in only two cases Madrid and Logroño, which are the only ones that are not placed near the coast. The one in Madrid was built due to its political centrality and because geographically speaking, it was the reference landmark of means of land and rail transports. Many factories, in fact, were settled nearby rail stations. For the factory in Logroño, only political reasons were taken into consideration. I should like to close by undertaking a comparative study of factories in Seville, Madrid and San Sebastian. There are a number of reasons to substantiate this choice: -The factory in Seville was historically speaking the first that was built and the most important one. -The factory in Madrid was the most important one administratively. This factory was the headquarters as well as being, after Seville, the one which provided a model for other factories. -The factory in San Sebastian is the biggest in the North of Spain. The analysis carried out are related to the volume of the buildings and the surface areas of the courtyards, the surface of the roofs, the permeability of the walls and the openings of the façade, the orientation and the sun exposure, the indoor spatial distribution and organization and evolution of the uses (formerly and currently) I observe that in most of these factories there has been a change in the use of the buildings, from industrial cultural purposes. These buildings can be considered as adaptable infrastructures based on a combination of architectural practicability, sustainability and functionality.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Desde hace ya varias décadas la praxis de la ecología ha venido reconociendo la necesidad de estudiar los múltiples sistemas de interacción del ser humano, como especie viva, y su entorno. Entidades espaciales como el paisaje geográfico son empleadas para delimitar sistemas territoriales operados por la sociedad, precisando campos concretos de su acción física, biológica y cultural. La ecología aborda así el conocimiento científico del territorio como asentamiento humano, rastrea sus patrones espaciales y analiza su compleja estructura funcional. En ese contexto, la transferencia de herramientas e instrumentos desde la ecología al ámbito proyectivo posee ya un bagaje de más de cinco décadas. Cada vez con más frecuencia el proyecto emplea parámetros, inventarios, fórmulas, indicadores y tecnologías que tratan de dar una respuesta ambientalmente adecuada a los condicionantes de contorno, por ejemplo aprovechando las condiciones climáticas en la optimización energética o proponiendo programas de usos del suelo que eviten perturbaciones en ecosistemas de interés. Con todo, en el momento presente surgen voces que, ante el dominio indiscutible de los enfoques netamente deterministas, tratan de recordar que los principios del pensamiento ecológico van más allá del mero control cuantitativo de los procesos biofísicos. Recuerdan que la etología demostró a principios del XX que el ser humano, como ser consciente, inviste una relación de intimidad con su entorno que supera tales perspectivas: a través de la correspondencia entre percepción y significación, entre lo físico y lo psíquico, entre interioridad y exterioridad, las personas abrazan la plenitud de aquello que les rodea en un acto de profunda conciliación afectiva. De tal ligadura de intimidad depende, sí o sí, y en toda su profundidad, la aceptación humana del entorno construido. A través de la noción de ambiente [Umwelt] se demuestra que la relación del hombre con su entorno es inseparable, bidireccional y coordinada y, por lo tanto, desde una posición coherente, la experiencia del espacio puede ser examinada a partir de la reciprocidad que constituyen, en continuidad, la persona y el lugar. De esta forma, la tesis dirige su objetivo principal a explorar y considerar, desde el proyecto, el significado y la influencia de la experiencia ambiental del espacio construido en la vida humana. Es más que probable que buena parte de los problemas de desafección del hombre con los paisajes transformados de su contemporaneidad tenga que ver con que tanto las intensidades de la experiencia y percepción humana, como la potestad interpretativa de sus productos culturales, incluyendo la arquitectura, han sido fuertemente reducidas. Ante este problema, la investigación toma como hipótesis la oportunidad que ofrece el pensamiento ecológico de reformular la experiencia estética como un acto de conocimiento, como un evento donde se da el encuentro físico y se construyen significados, donde se sancionan valores sociales y se mira hacia el futuro. Se ha de señalar que la presente tesis doctoral arranca en el Laboratorio de Paisaje del Grupo de Investigación Paisaje Cultural de la Universidad Politécnica de Madrid dirigido por Concha Lapayese y Darío Gazapo, y por tanto hace suyos para el estado del arte los principales conceptos e ideas bajo los que el trabajo teórico y práctico del grupo se viene orientando desde hace años: la consideración del paisaje como acontecimiento; la oscilación de la interpretación entre un paisaje específico y un paisaje genérico en un mundo globalizado; el reconocimiento de la experiencia estética del paisaje como una toma de conciencia social; y en definitiva, la reivindicación de la interioridad en el proyecto contemporáneo. La investigación profundiza en una línea de oportunidad que se abre al promover lo que se ha llamado un conocimiento por lo sentido como estrategia ambiental que permite contrarrestar mitos profundamente arraigados en las estructuras sociales. El primer paso en ese recorrido sería explorar ecológicamente el aporte de la experiencia estética; esto es, su consideración como forma de conocimiento específico. Resultaría pertinente impulsar la idea de la inmersión en el paisaje como fenómeno experiencial, sensual y corporal, y enfrentar, desde ahí, el problema de la aceptación social de lo nuevo y lo trasformado de acuerdo con el momento actual. La exploración sobre la afectividad en el ambiente no es, en cualquier caso, un asunto nuevo. Sin pretensiones de historiografía, dos momentos del siglo XX concentran el interés de la investigación. La primera se corresponde fundamentalmente con la segunda década del siglo, en relación a una serie de influencias que desde los avances científicos determinaron singulares aventuras del arte más experimental. La segunda se posiciona en el entorno de 1970, época en la que es conocido el interés que despertaron las cuestiones ambientales. En ambos casos se han estudiado aportaciones que desvelan conceptos determinantes en la definición de la experiencia estética como un evento de adquisición de conocimiento por lo sentido. Es conveniente adelantar el rol de centralidad que para la investigación tiene el concepto de energía, tal como el propio título subraya. La energía como realidad material y sensible es el sustrato que permite navegar por el principio de unidad epistemológica que subyace al pensamiento ecológico. Sus continuas referencias simbólicas, físicas y metafóricas entre los artistas estudiados no son un mero recurso iconográfico: mantienen inherente el principio de continuidad ambiental en el cual el ser humano y la inmensidad del cosmos navegan indisociables. Un discurso unificado y consistente sobre los aportes de la experiencia estética enfocada como forma de conocimiento por lo sentido hila la lectura histórica, conceptual y práctica de toda la investigación. Con ello se alcanza a hilvanar un diagrama conceptual, modelo de análisis proyectivo, que recoge ideas científicas, filosóficas y proyectivas. De alguna manera, el diagrama trata de dibujar, desde los principios del pensamiento ecológico, la correlación de continuidad que, vacilante, tensa, sutil y frágil se desplaza incesante e irresuelta entre interioridad y exterioridad. ABSTRACT Over the last few decades ecological practice has come to acknowledge a need for studying the multiple systems of interaction between the human being - inasmuch as it is a living species - and its environment. Spatial entities such as the geographic notion of landscape have been used to delimitate the territorial systems operated by society and to describe in detail specific fields of its physical, biological and cultural action. Ecology has thus managed to address the scientific knowledge of the territory as a human settlement, tracking its spatial patterns and analysing its complex functional structure. In this context, the transfer of tools and instruments from the field of ecology to that of design has a tradition already going back more than fifty years. Increasingly more often, design makes use of parameters, inventories, formulas, indicators and technologies to give an environmentally sound response to contour conditions: for instance, taking advantage of the local climate for the optimisation of energy consumption or proposing land uses that avoid disturbing valuable ecosystems. Yet in the present day some voices have arisen that, against the uncontested domination of purely positivistic approaches, are trying to draw attention to the fact that the principles of ecological thought go beyond mere quantitative control of biophysical processes. They point out that, in the early 20th century, ethology proved that the human being, as a conscious entity, invests itself into a relationship of intimacy with its environment that surpasses such perspectives: through the correspondences between perception and signification, between physical and psychological or between inside and outside, people embrace the entirety of their surroundings in an action of deep affective conciliation. It is on this link of intimacy that - fully and unquestionably - human acceptance of the built environment depends. Through the notion of environment [Umwelt] it can be proven that the relationship between the human being and its environment is inseparable, bidirectional and coordinated; and that, therefore, from a coherent position the experience of space can be examined through the reciprocity constituted continuously by person and place. Thus, the main goal in this thesis is to explore and acknowledge, from the standpoint of design, the meaning and influence of the environmental experience in human life. It is extremely likely that many of the issues with mankind’s alienation from the transformed landscapes of the present day arise from the fact that both the intensity of human perception and experience and the interpretive capacity of its cultural products –including architecture - have been greatly reduced. Facing this issue, research has taken as hypothesis the opportunity offered by ecological thought of reformulating aesthetic experience as an act of knowledge – as an event where physical encounter takes place and meanings are constructed; where social values are sanctioned and the path towards the future is drawn. This notwithstanding, the present thesis began in the Landscape Laboratory of the Technical University of Madrid Cultural Landscape Research Group (GIPC-UPM), led by Concha Lapayese and Darío Gazapo; and has therefore appropriated for its state of the art the main concepts and ideas that have been orienting the practical and theoretical work of the latter: the understanding of landscape as an event, the oscillation of interpretation between a specific and a generic landscape within a globalised world; the acknowledgement of the aesthetic experience of landscape as a way of acquiring social awareness; and, all in all, a vindication of interiority in contemporary design. An exploration has been made of the line of opportunity that is opened when promoting what has been termed knowledge through the senses as an environmental strategy allowing to counter myths deeply rooted in social structures. The first step in this path would be an ecological exploration of the contribution of the aesthetic experience; that is, its consideration as a type of specific knowledge. It would be pertinent to further the idea of immersion into the landscape as an experiential, sensual and corporeal phenomenon and, from that point, to face the issue of social acceptance of what is new and transformed according to the values of the present day. The exploration of affectivity in the environment is not, at any rate, a new topic. Without aspiring to make a history of it, we can mark two points in the 20th century that have concentrated the interest of this research. The first coincides with the second decade of the century and relates to a number of influences that, arising from scientific progress, determined the singular adventures of the more experimental tendencies in art. The second is centred around 1970: a period in which the interest drawn by environmental matters is well known. In both cases, contributions have been studied that reveal crucial concepts in defining the aesthetic experience as an event for the acquisition of knowledge through the senses. It is necessary to highlight the role of centrality that the concept of energy has throughout this research, as is evident even in its title. Energy as a material, sensitive reality is the substrate making it possible to navigate through the principle of epistemological unity underlying ecological thought. The continuous symbolic, physical and metaphorical references to it among the artists studied here are not a mere iconographic source: they remind of the inherency of the principle of environmental continuity within which the human being and the immensity of cosmos travel indissociably. A unified, consistent discourse on the contributions of the aesthetic experience addressed as knowledge through the senses weaves together the historic, conceptual and practical reading of the whole research. With it, a conceptual diagram is constructed – a model of design analysis – gathering together scientific, philosophical and design ideas. Somehow, the diagram tries to draw from the principles of ecological thought the correlation of continuity that, vacillating, tense, subtle and fragile, shifts incessantly and unresolved between interiority and exteriority.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Arquitectura de la Red de las Cosas (IoT) hace referencia a una red de objetos cotidianos interconectados digitalmente. Gracias a IoT, no sólo podemos almacenar, analizar e intercambiar información y datos con dichos objetos, sino que además ellos pueden tener la capacidad de interactuar entre ellos de forma autónoma. Para ellos, los objetos cotidianos disponen de actuadores y sensores que permiten modificar su comportamiento y conocer su estado y propiedades, respectivamente. La gestión de IoT combina todas las funcionalidades necesarias para coordinar un sistema con una Arquitectura de la Red de las Cosas. Una buena gestión del sistema puede reducir costes, mejorar la asistencia a problemas de uso inesperado, corregir fallos y permitir la escalabilidad del sistema permitiéndole la incorporación de nuevos módulos y funcionalidades. En este Proyecto Fin de Grado se realizará primero un análisis de los aspectos de IoT relacionados con la gestión de dispositivos integrados en la Arquitectura de la Red de las Cosas. Después se procederá a realizar la especificación y el diseño de plataforma de gestión. Y finalmente se desarrollarán un caso de uso que permita validar algunos elementos de la plataforma diseñada. Se realizarán distintas pruebas para comprobar una correcta gestión de los dispositivos como el correcto funcionamiento del diseño previamente establecido, por medio, entre otras, de las siguientes operaciones: listar los elementos conectados, posibilidad de obtener y/o modificar dichos elementos (su configuración y su estado) o presentar informes y comprobar el estado en el que se encuentran los dispositivos: operativos o no operativos. De tal forma, en esta memoria se plasma como se ha desarrollado la gestión de dispositivos integrados en un sistema con Arquitectura de la Red de las Cosas utilizando tanto plataformas Intel Galileo como Arduino. ABSTRACT. The Architecture of the Internet of Things (IoT) refers to a network of digitally interconnected everyday objects. With IoT, not only we can store, analyze and exchange information and data with objects, but they can also autonomously interact among them. To accomplish that, the everyday objects are made of actuators and sensors that let us act on their behavior and know their state and properties, respectively. Management of IoT combines all the functionalities needed for coordinating a system with an Architecture of the Internet of Things. A good management system can reduce faults, improve assistance to reduce unexpected problems, correct errors and allow the scalability of the system, allowing the addition of new modules and functionalities. In this Degree Final Project, an analysis about aspects of IoT related to the management of devices integrated into the Architecture of the Internet of things is carried out first. Then, the specification and the design of the management platform is made. Finally, a use case will be developed to validate some elements of the designed platform. Several tests will be run to check the correct management of the devices such as the proper functioning of the design previously established, requesting, among others, the following set of operations: list the connected elements, possibility to obtain or modify these elements (their configuration and their state) or reporting and checking which devices are operating or non-operating. So, in this memory it is explained how it has been carried out the management of devices integrated in a system with an Architecture of the Internet of Things (IoT), based on the Intel Galileo and Arduino platforms.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La tesis Flujo Laminar, El cementerio de Igualada y los procesos elásticos en la arquitectura de Enric Miralles y Carme Pinós analiza la metodología que utilizan y desarrollan los arquitectos Miralles y Pinós en el proyecto del cementerio de Igualada. Enric Miralles y Carme Pinós comienzan a trabajar juntos en 1983, separándose siete años después. La producción arquitectónica que generan durante este periodo ha sido valorada y considerada por la crítica como una de las de mayor calidad en el último cuarto del siglo XX. Respecto a esta etapa de colaboración existen artículos dispersos que analizan de manera aislada algunos aspectos de sus proyectos. Sin embargo, no se han realizado estudios que analicen su metodología proyectual, sus herramientas, sus estrategias y sus diferentes conexiones y referencias. Tampoco se han analizado hasta el momento, cómo son sus procesos proyectuales, sus tiempos y sus objetivos. En este sentido, el proyecto del cementerio de Igualada será clave en la trayectoria del equipo. El tiempo extenso empleado en el proceso y la singularidad de la obra, además de otros factores del propio imaginario de Miralles y Pinós, marcarán a este proyecto como un punto de inflexión en su trabajo. La investigación plantea, en primer lugar, la descripción del contexto en el cual se comienzan a desarrollar los proyectos iniciales de Miralles y Pinós, además de los antecedentes que generarán la propuesta para el cementerio de Igualada. Seguidamente, se describen y analizan los apoyos y las referencias que los arquitectos utilizan en este proyecto, tanto las vinculadas a la cultura local como las atrapadas desde el imaginario universal. Por otro lado, el bloque central de la investigación aporta doce herramientas que construyen la metodología proyectual de Miralles y Pinós. Esta contribución se ha realizado desde el análisis y el cruce de los documentos originales del proyecto de Igualada y los escritos existentes de los arquitectos. Las herramientas aportadas son: deslizar, desplazar, repetir, enterrar, constreñir, oscilar, estirar, desenredar, desviar, rehacer, hendir y fluir. Todas ellas se describen, analizan e interpretan desde setenta y dos documentos esenciales extraídos del proceso de Igualada. Un último capítulo de conclusiones, define lo que se presenta en la investigación como una metodología propia de Enric Miralles y Carme Pinós, denominada procesos elásticos, en el que se describen sus cualidades y sus tiempos, a la vez que se presenta también una táctica empleada en el proyecto de Igualada denominada flujo laminar. ABSTRACT The thesis Laminar Flow, the Igualada cemetery and the elastic processes in the architecture of Enric Miralles and Carme Pinós analyses the methodology that the architects Miralles and Pinós used in the project for the Igualada cemetery park. Enric Miralles and Carme Pinós began to work together in 1983, and went their different ways seven years later. The architectural production they generated during that period has been valued and considered by critics to be among the greatest quality of production in the final quarter of the twentieth century. There is a scattering of articles about this period which give an independent analysis of some features of their products. However, there are no studies which analyse their project design methodology, their tools, their strategies and their different connections and references. Neither has there been analysis to date of the nature of their project design processes, nor of their times and their aims. Within this context, the Igualada cemetery project was key in the path to be trodden by the team. The great length of time used on the process and the singularity of the work, alongside other factors from Miralles and Pinós's personal imaginarium, were to mark this project as a turning point in their work. This research sets out, first of all, to describe the context in which the early projects by Miralles and Pinós began to be developed, as well as the background to the generation of their proposal for the Igualada cemetery. There follows a description and analysis of the resources and of the references that the architects used in this project, both those linked to local culture and those picked from the universal imaginarium. Furthermore, the central block of the research identifies twelve tools which make up Miralles and Pinós's project design methodology. This contribution has been performed on the basis of analysis and comparison of the original Igualada project documents and of writings extant by the architects. The tools identified are: slide, shift, repeat, bury, constrain, oscillate, stretch, untangle, divert, redo, groove and flow. They are all described, analysed and interpreted on the basis of seventy-two essential documents extracted from the Igualada process. A final chapter of conclusions defines what is presented in the research as a methodology which is specific to Enric Miralles and Carme Pinós, denominated elastic processes, describing their qualities and their times, along with the presentation of a tactic used in the Igualada project which is denominated laminar flow.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Artículo en francés que describe las ventajas de la ejecución de un plan director de iluminación urbano en lo referente a la imagen urbana, la calidad de vida de sus habitantes, el desarrollo de la identidad del paisaje local y el desarrollo económico.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Vivimos en una sociedad en la que la información ha adquirido una vital importancia. El uso de Internet y el desarrollo de nuevos sistemas de la información han generado un ferviente interés tanto de empresas como de instituciones en la búsqueda de nuevos patrones que les proporcione la clave del éxito. La Analítica de Negocio reúne un conjunto de herramientas, estrategias y técnicas orientadas a la explotación de la información con el objetivo de crear conocimiento útil dentro de un marco de trabajo y facilitar la optimización de los recursos tanto de empresas como de instituciones. El presente proyecto se enmarca en lo que se conoce como Gestión Educativa. Se aplicará una arquitectura y modelo de trabajo similar a lo que se ha venido haciendo en los últimos años en el entorno empresarial con la Inteligencia de Negocio. Con esta variante, se pretende mejorar la calidad de la enseñanza, agilizar las decisiones dentro de la institución académica, fortalecer las capacidades del cuerpo docente y en definitiva favorecer el aprendizaje del alumnado. Para lograr el objetivo se ha decidido seguir las etapas del Knowledge Discovery in Databases (KDD), una de las metodologías más conocidas dentro de la Inteligencia de Negocio, que describe el procedimiento que va desde la selección de la información y su carga en sistemas de almacenamiento, hasta la aplicación de técnicas de minería de datos para la obtención nuevo conocimiento. Los estudios se realizan a partir de la información de la activad de los usuarios dentro la plataforma de Tele-Enseñanza de la Universidad Politécnica de Madrid (Moodle). Se desarrollan trabajos de extracción y preprocesado de la base de datos en crudo y se aplican técnicas de minería de datos. En la aplicación de técnicas de minería de datos, uno de los factores más importantes a tener en cuenta es el tipo de información que se va a tratar. Por este motivo, se trabaja con la Minería de Datos Educativa, en inglés, Educational Data Mining (EDM) que consiste en la aplicación de técnicas de minería optimizadas para la información que se genera en entornos educativos. Dentro de las posibilidades que ofrece el EDM, se ha decidido centrar los estudios en lo que se conoce como analítica predictiva. El objetivo fundamental es conocer la influencia que tienen las interacciones alumno-plataforma en las calificaciones finales y descubrir nuevas reglas que describan comportamientos que faciliten al profesorado discriminar si un estudiante va a aprobar o suspender la asignatura, de tal forma que se puedan tomar medidas que mejoren su rendimiento. Toda la información tratada en el presente proyecto ha sido previamente anonimizada para evitar cualquier tipo de intromisión que atente contra la privacidad de los elementos participantes en el estudio. ABSTRACT. We live in a society dominated by data. The use of the Internet accompanied by developments in information systems has generated a sustained interest among companies and institutions to discover new patterns to succeed in their business ventures. Business Analytics (BA) combines tools, strategies and techniques focused on exploiting the available information, to optimize resources and create useful insight. The current project is framed under Educational Management. A Business Intelligence (BI) architecture and business models taught up to date will be applied with the aim to accelerate the decision-making in academic institutions, strengthen teacher´s skills and ultimately improve the quality of teaching and learning. The best way to achieve this is to follow the Knowledge Discovery in Databases (KDD), one of the best-known methodologies in B.I. This process describes data preparation, selection, and cleansing through to the application of purely Data Mining Techniques in order to incorporate prior knowledge on data sets and interpret accurate solutions from the observed results. The studies will be performed using the information extracted from the Universidad Politécnica de Madrid Learning Management System (LMS), Moodle. The stored data is based on the user-platform interaction. The raw data will be extracted and pre-processed and afterwards, Data Mining Techniques will be applied. One of the crucial factors in the application of Data Mining Techniques is the kind of information that will be processed. For this reason, a new Data Mining perspective will be taken, called Educational Data Mining (EDM). EDM consists of the application of Data Mining Techniques but optimized for the raw data generated by the educational environment. Within EDM, we have decided to drive our research on what is called Predictive Analysis. The main purpose is to understand the influence of the user-platform interactions in the final grades of students and discover new patterns that explain their behaviours. This could allow teachers to intervene ahead of a student passing or failing, in such a way an action could be taken to improve the student performance. All the information processed has been previously anonymized to avoid the invasion of privacy.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Uno de los mayores retos para la comunidad científica es conseguir que las máquinas posean en un futuro la capacidad del sistema visual y cognitivo humanos, de forma que, por ejemplo, en entornos de video vigilancia, puedan llegar a proporcionar de manera automática una descripción fiable de lo que está ocurriendo en la escena. En la presente tesis, mediante la propuesta de un marco de trabajo de referencia, se discuten y plantean los pasos necesarios para el desarrollo de sistemas más inteligentes capaces de extraer y analizar, a diferentes niveles de abstracción y mediante distintos módulos de procesamiento independientes, la información necesaria para comprender qué está sucediendo en un conjunto amplio de escenarios de distinta naturaleza. Se parte de un análisis de requisitos y se identifican los retos para este tipo de sistemas en la actualidad, lo que constituye en sí mismo los objetivos de esta tesis, contribuyendo así a un modelo de datos basado en el conocimiento que permitirá analizar distintas situaciones en las que personas y vehículos son los actores principales, dejando no obstante la puerta abierta a la adaptación a otros dominios. Así mismo, se estudian los distintos procesos que se pueden lanzar a nivel interno así como la necesidad de integrar mecanismos de realimentación a distintos niveles que permitan al sistema adaptarse mejor a cambios en el entorno. Como resultado, se propone un marco de referencia jerárquico que integra las capacidades de percepción, interpretación y aprendizaje para superar los retos identificados en este ámbito; y así poder desarrollar sistemas de vigilancia más robustos, flexibles e inteligentes, capaces de operar en una variedad de entornos. Resultados experimentales ejecutados sobre distintas muestras de datos (secuencias de vídeo principalmente) demuestran la efectividad del marco de trabajo propuesto respecto a otros propuestos en el pasado. Un primer caso de estudio, permite demostrar la creación de un sistema de monitorización de entornos de parking en exteriores para la detección de vehículos y el análisis de plazas libres de aparcamiento. Un segundo caso de estudio, permite demostrar la flexibilidad del marco de referencia propuesto para adaptarse a los requisitos de un entorno de vigilancia completamente distinto, como es un hogar inteligente donde el análisis automático de actividades de la vida cotidiana centra la atención del estudio. ABSTRACT One of the most ambitious objectives for the Computer Vision and Pattern Recognition research community is that machines can achieve similar capacities to the human's visual and cognitive system, and thus provide a trustworthy description of what is happening in the scene under surveillance. Thus, a number of well-established scenario understanding architectural frameworks to develop applications working on a variety of environments can be found in the literature. In this Thesis, a highly descriptive methodology for the development of scene understanding applications is presented. It consists of a set of formal guidelines to let machines extract and analyse, at different levels of abstraction and by means of independent processing modules that interact with each other, the necessary information to understand a broad set of different real World surveillance scenarios. Taking into account the challenges that working at both low and high levels offer, we contribute with a highly descriptive knowledge-based data model for the analysis of different situations in which people and vehicles are the main actors, leaving the door open for the development of interesting applications in diverse smart domains. Recommendations to let systems achieve high-level behaviour understanding will be also provided. Furthermore, feedback mechanisms are proposed to be integrated in order to let any system to understand better the environment and the logical context around, reducing thus the uncertainty and noise, and increasing its robustness and precision in front of low-level or high-level errors. As a result, a hierarchical cognitive architecture of reference which integrates the necessary perception, interpretation, attention and learning capabilities to overcome main challenges identified in this area of research is proposed; thus allowing to develop more robust, flexible and smart surveillance systems to cope with the different requirements of a variety of environments. Once crucial issues that should be treated explicitly in the design of this kind of systems have been formulated and discussed, experimental results shows the effectiveness of the proposed framework compared with other proposed in the past. Two case studies were implemented to test the capabilities of the framework. The first case study presents how the proposed framework can be used to create intelligent parking monitoring systems. The second case study demonstrates the flexibility of the system to cope with the requirements of a completely different environment, a smart home where activities of daily living are performed. Finally, general conclusions and future work lines to further enhancing the capabilities of the proposed framework are presented.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los Objetivos de Desarrollo del Milenio comprometieron a los países con una nueva alianza mundial de alcanzar gradualmente una cobertura universal de los niveles mínimos de bienestar en los países en desarrollo (reducir la pobreza y el hambre y dar respuesta a problemas como la mala salud, las desigualdades de género, la falta de educación, el acceso a agua salubre y la degradación ambiental). Para dar continuidad a esta iniciativa, recientemente en septiembre de 2015, la ONU promulgó la declaración de los Objetivos de Desarrollo Sostenible. Los ODM sitúan la salud en el corazón del desarrollo y establecen un novedoso pacto mundial que vincula a los países desarrollados y los países en desarrollo por medio de obligaciones claras y recíprocas. En este sentido, diversos organismos de cooperación a través de sus programas de cooperación internacional, tratan de mejorar el acceso a la asistencia sanitaria, especialmente a la población vulnerable que vive en zonas rurales de países en desarrollo. Con el fin de ayudar a cumplir los ODM que apoyan los temas de salud en dicha población, estos organismos desarrollan proyectos que despliegan sistemas de e-salud. Las intervenciones se enfrentan a múltiples retos: condicionantes de los países en desarrollo, las necesidades y demandas de los sistemas sanitarios y la complejidad de implantar las TIC en entornos complejos y altamente dinámicos como son los países en desarrollo. Estos condicionantes ocasionan la mayoría de proyectos fallidos que terminan convirtiéndose en soluciones aisladas, que anteponen la tecnología a las necesidades de la población y no generan el impacto esperado en su desarrollo. En este contexto tuvo origen esta tesis doctoral, que persigue como objetivo analizar, planificar, diseñar, verificar y validar un marco arquitectónico de implantación de sistemas de e-salud en áreas rurales de países en desarrollo, que promueva el mejoramiento de la calidad de vida de la población vulnerable de estas regiones y la efectividad de las intervenciones de e-salud en el marco de proyectos de cooperación al desarrollo. Para lograrlo, tomé como punto de partida, diversas estrategias, modelos, metodologías de implantación de e-salud, modelos de gestión de proyectos propuestos por distintos organismos internacionales y propuse una instanciación de estos modelos a proyectos de implantación de sistemas de e-salud en países en desarrollo. Apliqué la metodología action research y los enfoques twin track, middle out y design thinking que me permitieron el refinamiento iterativo del modelo propuesto en la tesis doctoral mediante el trabajo de campo realizado en dos zonas rurales de países de Centroamérica: Jocotán (Guatemala) y San José de Cusmapa (Nicaragua). Como resultado obtuve un modelo experimental basado en cuatro componentes: un modelo de referencia tipo, un modelo conceptual de e-salud, los procesos de gestión y de implantación de sistemas de e-salud en países en desarrollo y una arquitectura de referencia. El modelo experimental resultante aporta herramientas importantes para el despliegue de sistemas de e-salud en países en desarrollo. Se ha propuesto un modelo de referencia que proporciona una visión holística del contexto del país en desarrollo donde se desarrollarán las intervenciones. Un modelo conceptual de e-salud que representa los principales conceptos involucrados en un sistema de e-salud. Los procesos ii- de gestión del proyecto y de implantación del sistema que proporcionan a los grupos de cooperación, herramientas para el análisis, diseño, desarrollo y despliegue de los sistemas de e-salud en áreas rurales de países en desarrollo. Y finalmente la arquitectura de referencia que sienta las bases para la aplicación de estos procesos a un contexto en particular. Las líneas futuras de trabajo sugieren extender el modelo a más casos de estudio que permitan su refinamiento y evaluar los futuros usos que pueden surgir de los sistemas de e-salud resultantes. ABSTRACT Millennium Development Goals (MDGs) committing the countries with a new global partnership to achieve universal coverage of minimum levels of well-being in Developing Countries (for addressing extreme poverty in its many dimensions-income poverty, hunger, disease, lack of adequate housing, and exclusion-while promoting gender equality, education, and environmental sustainability). From September 2015, these goals are replaces with Sustainable Development Goals (SDGs). The MDG place health at the heart of development and establish a novel global compact, linking developed and developing countries through clear, reciprocal obligations. Many public and private institutions promote international cooperation programs to support in achieving the MDGs. Some of these cooperation programs deal improving access to healthcare to poor people living in isolated areas from developing countries. In order to accomplish this goal organizations perform projects (interventions or cooperation projects) that deploy e-health systems in these zones. Nevertheless, this kind of projects face multiple challenges that dismiss the effectiveness of the projects results. In particular, cooperation teams face issues such as constraints in developing countries, lack of electrical and ICT infrastructure, scarce transport, extreme climate conditions, lack ICT capacity, lack of access to healthcare and inefficient delivery methods, etc. Hence, these issues increase the complexity of implementing e-health in developing countries and then causes the most projects fail. In other words, the solutions do not meet population needs and do not generate the expected impact on development. This context is the starting point of this doctoral thesis, which deals with analysing, planning, designing, testing and validating an architectural framework in order to implement e-health systems in rural areas from developing countries, promote development of the population in these regions, and thus improve the impact of interventions of development cooperation projects. To achieve this goal, I took as a starting point the strategies, models, e-health implementation methodologies and projects management models proposed by various international agencies. Then I proposed an instantiation of these models to manage the intervention and implement e-health systems in developing countries. I applied the action research methodology and the approaches twin track, middle out and design thinking which allowed me the iterative refinement of the model proposed in this doctoral thesis. The proposed framework was validated by running two cases studies in rural areas of Central America: Jocotán (Guatemala) and San José de Cusmapa (Nicaragua). As a result, I obtained an experimental model based on four components: a Type reference model, an e-health conceptual model, both process management and implementation e-health systems in developing countries and a reference architecture. The resulting experimental model provides important tools for the deployment of e-health systems in developing countries. The model become as reference model that provides a holistic view of the developing countries context where the interventions will be running. The conceptual model of e-health represents the main concepts involved into an e-health system. The project management and implementation processes of the iv- system provide to the cooperation teams with tools for analysing, designing, developing and deploying e-health systems in rural areas from developing countries. Finally, the reference architecture provides the basis for the implementation of these processes into a particular context. The future research suggest the extension the model to other cases studies in order to refine and evaluate the viability the model.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La presente Tesis investiga el campo del reconocimiento automático de imágenes mediante ordenador aplicado al análisis de imágenes médicas en mamografía digital. Hay un interés por desarrollar sistemas de aprendizaje que asistan a los radiólogos en el reconocimiento de las microcalcificaciones para apoyarles en los programas de cribado y prevención del cáncer de mama. Para ello el análisis de las microcalcificaciones se ha revelado como técnica clave de diagnóstico precoz, pero sin embargo el diseño de sistemas automáticos para reconocerlas es complejo por la variabilidad y condiciones de las imágenes mamográficas. En este trabajo se analizan los planteamientos teóricos de diseño de sistemas de reconocimiento de imágenes, con énfasis en los problemas específicos de detección y clasificación de microcalcificaciones. Se ha realizado un estudio que incluye desde las técnicas de operadores morfológicos, redes neuronales, máquinas de vectores soporte, hasta las más recientes de aprendizaje profundo mediante redes neuronales convolucionales, contemplando la importancia de los conceptos de escala y jerarquía a la hora del diseño y sus implicaciones en la búsqueda de la arquitectura de conexiones y capas de la red. Con estos fundamentos teóricos y elementos de diseño procedentes de otros trabajos en este área realizados por el autor, se implementan tres sistemas de reconocimiento de mamografías que reflejan una evolución tecnológica, culminando en un sistema basado en Redes Neuronales Convolucionales (CNN) cuya arquitectura se diseña gracias al análisis teórico anterior y a los resultados prácticos de análisis de escalas llevados a cabo en nuestra base de datos de imágenes. Los tres sistemas se entrenan y validan con la base de datos de mamografías DDSM, con un total de 100 muestras de entrenamiento y 100 de prueba escogidas para evitar sesgos y reflejar fielmente un programa de cribado. La validez de las CNN para el problema que nos ocupa queda demostrada y se propone un camino de investigación para el diseño de su arquitectura. ABSTRACT This Dissertation investigates the field of computer image recognition applied to medical imaging in mammography. There is an interest in developing learning systems to assist radiologists in recognition of microcalcifications to help them in screening programs for prevention of breast cancer. Analysis of microcalcifications has emerged as a key technique for early diagnosis of breast cancer, but the design of automatic systems to recognize them is complicated by the variability and conditions of mammographic images. In this Thesis the theoretical approaches to design image recognition systems are discussed, with emphasis on the specific problems of detection and classification of microcalcifications. Our study includes techniques ranging from morphological operators, neural networks and support vector machines, to the most recent deep convolutional neural networks. We deal with learning theory by analyzing the importance of the concepts of scale and hierarchy at the design stage and its implications in the search for the architecture of connections and network layers. With these theoretical facts and design elements coming from other works in this area done by the author, three mammogram recognition systems which reflect technological developments are implemented, culminating in a system based on Convolutional Neural Networks (CNN), whose architecture is designed thanks to the previously mentioned theoretical study and practical results of analysis conducted on scales in our image database. All three systems are trained and validated against the DDSM mammographic database, with a total of 100 training samples and 100 test samples chosen to avoid bias and stand for a real screening program. The validity of the CNN approach to the problem is demonstrated and a research way to help in designing the architecture of these networks is proposed.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Esta tesis doctoral se enmarca dentro del campo de los sistemas embebidos reconfigurables, redes de sensores inalámbricas para aplicaciones de altas prestaciones, y computación distribuida. El documento se centra en el estudio de alternativas de procesamiento para sistemas embebidos autónomos distribuidos de altas prestaciones (por sus siglas en inglés, High-Performance Autonomous Distributed Systems (HPADS)), así como su evolución hacia el procesamiento de alta resolución. El estudio se ha llevado a cabo tanto a nivel de plataforma como a nivel de las arquitecturas de procesamiento dentro de la plataforma con el objetivo de optimizar aspectos tan relevantes como la eficiencia energética, la capacidad de cómputo y la tolerancia a fallos del sistema. Los HPADS son sistemas realimentados, normalmente formados por elementos distribuidos conectados o no en red, con cierta capacidad de adaptación, y con inteligencia suficiente para llevar a cabo labores de prognosis y/o autoevaluación. Esta clase de sistemas suele formar parte de sistemas más complejos llamados sistemas ciber-físicos (por sus siglas en inglés, Cyber-Physical Systems (CPSs)). Los CPSs cubren un espectro enorme de aplicaciones, yendo desde aplicaciones médicas, fabricación, o aplicaciones aeroespaciales, entre otras muchas. Para el diseño de este tipo de sistemas, aspectos tales como la confiabilidad, la definición de modelos de computación, o el uso de metodologías y/o herramientas que faciliten el incremento de la escalabilidad y de la gestión de la complejidad, son fundamentales. La primera parte de esta tesis doctoral se centra en el estudio de aquellas plataformas existentes en el estado del arte que por sus características pueden ser aplicables en el campo de los CPSs, así como en la propuesta de un nuevo diseño de plataforma de altas prestaciones que se ajuste mejor a los nuevos y más exigentes requisitos de las nuevas aplicaciones. Esta primera parte incluye descripción, implementación y validación de la plataforma propuesta, así como conclusiones sobre su usabilidad y sus limitaciones. Los principales objetivos para el diseño de la plataforma propuesta se enumeran a continuación: • Estudiar la viabilidad del uso de una FPGA basada en RAM como principal procesador de la plataforma en cuanto a consumo energético y capacidad de cómputo. • Propuesta de técnicas de gestión del consumo de energía en cada etapa del perfil de trabajo de la plataforma. •Propuestas para la inclusión de reconfiguración dinámica y parcial de la FPGA (por sus siglas en inglés, Dynamic Partial Reconfiguration (DPR)) de forma que sea posible cambiar ciertas partes del sistema en tiempo de ejecución y sin necesidad de interrumpir al resto de las partes. Evaluar su aplicabilidad en el caso de HPADS. Las nuevas aplicaciones y nuevos escenarios a los que se enfrentan los CPSs, imponen nuevos requisitos en cuanto al ancho de banda necesario para el procesamiento de los datos, así como en la adquisición y comunicación de los mismos, además de un claro incremento en la complejidad de los algoritmos empleados. Para poder cumplir con estos nuevos requisitos, las plataformas están migrando desde sistemas tradicionales uni-procesador de 8 bits, a sistemas híbridos hardware-software que incluyen varios procesadores, o varios procesadores y lógica programable. Entre estas nuevas arquitecturas, las FPGAs y los sistemas en chip (por sus siglas en inglés, System on Chip (SoC)) que incluyen procesadores embebidos y lógica programable, proporcionan soluciones con muy buenos resultados en cuanto a consumo energético, precio, capacidad de cómputo y flexibilidad. Estos buenos resultados son aún mejores cuando las aplicaciones tienen altos requisitos de cómputo y cuando las condiciones de trabajo son muy susceptibles de cambiar en tiempo real. La plataforma propuesta en esta tesis doctoral se ha denominado HiReCookie. La arquitectura incluye una FPGA basada en RAM como único procesador, así como un diseño compatible con la plataforma para redes de sensores inalámbricas desarrollada en el Centro de Electrónica Industrial de la Universidad Politécnica de Madrid (CEI-UPM) conocida como Cookies. Esta FPGA, modelo Spartan-6 LX150, era, en el momento de inicio de este trabajo, la mejor opción en cuanto a consumo y cantidad de recursos integrados, cuando además, permite el uso de reconfiguración dinámica y parcial. Es importante resaltar que aunque los valores de consumo son los mínimos para esta familia de componentes, la potencia instantánea consumida sigue siendo muy alta para aquellos sistemas que han de trabajar distribuidos, de forma autónoma, y en la mayoría de los casos alimentados por baterías. Por esta razón, es necesario incluir en el diseño estrategias de ahorro energético para incrementar la usabilidad y el tiempo de vida de la plataforma. La primera estrategia implementada consiste en dividir la plataforma en distintas islas de alimentación de forma que sólo aquellos elementos que sean estrictamente necesarios permanecerán alimentados, cuando el resto puede estar completamente apagado. De esta forma es posible combinar distintos modos de operación y así optimizar enormemente el consumo de energía. El hecho de apagar la FPGA para ahora energía durante los periodos de inactividad, supone la pérdida de la configuración, puesto que la memoria de configuración es una memoria volátil. Para reducir el impacto en el consumo y en el tiempo que supone la reconfiguración total de la plataforma una vez encendida, en este trabajo, se incluye una técnica para la compresión del archivo de configuración de la FPGA, de forma que se consiga una reducción del tiempo de configuración y por ende de la energía consumida. Aunque varios de los requisitos de diseño pueden satisfacerse con el diseño de la plataforma HiReCookie, es necesario seguir optimizando diversos parámetros tales como el consumo energético, la tolerancia a fallos y la capacidad de procesamiento. Esto sólo es posible explotando todas las posibilidades ofrecidas por la arquitectura de procesamiento en la FPGA. Por lo tanto, la segunda parte de esta tesis doctoral está centrada en el diseño de una arquitectura reconfigurable denominada ARTICo3 (Arquitectura Reconfigurable para el Tratamiento Inteligente de Cómputo, Confiabilidad y Consumo de energía) para la mejora de estos parámetros por medio de un uso dinámico de recursos. ARTICo3 es una arquitectura de procesamiento para FPGAs basadas en RAM, con comunicación tipo bus, preparada para dar soporte para la gestión dinámica de los recursos internos de la FPGA en tiempo de ejecución gracias a la inclusión de reconfiguración dinámica y parcial. Gracias a esta capacidad de reconfiguración parcial, es posible adaptar los niveles de capacidad de procesamiento, energía consumida o tolerancia a fallos para responder a las demandas de la aplicación, entorno, o métricas internas del dispositivo mediante la adaptación del número de recursos asignados para cada tarea. Durante esta segunda parte de la tesis se detallan el diseño de la arquitectura, su implementación en la plataforma HiReCookie, así como en otra familia de FPGAs, y su validación por medio de diferentes pruebas y demostraciones. Los principales objetivos que se plantean la arquitectura son los siguientes: • Proponer una metodología basada en un enfoque multi-hilo, como las propuestas por CUDA (por sus siglas en inglés, Compute Unified Device Architecture) u Open CL, en la cual distintos kernels, o unidades de ejecución, se ejecuten en un numero variable de aceleradores hardware sin necesidad de cambios en el código de aplicación. • Proponer un diseño y proporcionar una arquitectura en la que las condiciones de trabajo cambien de forma dinámica dependiendo bien de parámetros externos o bien de parámetros que indiquen el estado de la plataforma. Estos cambios en el punto de trabajo de la arquitectura serán posibles gracias a la reconfiguración dinámica y parcial de aceleradores hardware en tiempo real. • Explotar las posibilidades de procesamiento concurrente, incluso en una arquitectura basada en bus, por medio de la optimización de las transacciones en ráfaga de datos hacia los aceleradores. •Aprovechar las ventajas ofrecidas por la aceleración lograda por módulos puramente hardware para conseguir una mejor eficiencia energética. • Ser capaces de cambiar los niveles de redundancia de hardware de forma dinámica según las necesidades del sistema en tiempo real y sin cambios para el código de aplicación. • Proponer una capa de abstracción entre el código de aplicación y el uso dinámico de los recursos de la FPGA. El diseño en FPGAs permite la utilización de módulos hardware específicamente creados para una aplicación concreta. De esta forma es posible obtener rendimientos mucho mayores que en el caso de las arquitecturas de propósito general. Además, algunas FPGAs permiten la reconfiguración dinámica y parcial de ciertas partes de su lógica en tiempo de ejecución, lo cual dota al diseño de una gran flexibilidad. Los fabricantes de FPGAs ofrecen arquitecturas predefinidas con la posibilidad de añadir bloques prediseñados y poder formar sistemas en chip de una forma más o menos directa. Sin embargo, la forma en la que estos módulos hardware están organizados dentro de la arquitectura interna ya sea estática o dinámicamente, o la forma en la que la información se intercambia entre ellos, influye enormemente en la capacidad de cómputo y eficiencia energética del sistema. De la misma forma, la capacidad de cargar módulos hardware bajo demanda, permite añadir bloques redundantes que permitan aumentar el nivel de tolerancia a fallos de los sistemas. Sin embargo, la complejidad ligada al diseño de bloques hardware dedicados no debe ser subestimada. Es necesario tener en cuenta que el diseño de un bloque hardware no es sólo su propio diseño, sino también el diseño de sus interfaces, y en algunos casos de los drivers software para su manejo. Además, al añadir más bloques, el espacio de diseño se hace más complejo, y su programación más difícil. Aunque la mayoría de los fabricantes ofrecen interfaces predefinidas, IPs (por sus siglas en inglés, Intelectual Property) comerciales y plantillas para ayudar al diseño de los sistemas, para ser capaces de explotar las posibilidades reales del sistema, es necesario construir arquitecturas sobre las ya establecidas para facilitar el uso del paralelismo, la redundancia, y proporcionar un entorno que soporte la gestión dinámica de los recursos. Para proporcionar este tipo de soporte, ARTICo3 trabaja con un espacio de soluciones formado por tres ejes fundamentales: computación, consumo energético y confiabilidad. De esta forma, cada punto de trabajo se obtiene como una solución de compromiso entre estos tres parámetros. Mediante el uso de la reconfiguración dinámica y parcial y una mejora en la transmisión de los datos entre la memoria principal y los aceleradores, es posible dedicar un número variable de recursos en el tiempo para cada tarea, lo que hace que los recursos internos de la FPGA sean virtualmente ilimitados. Este variación en el tiempo del número de recursos por tarea se puede usar bien para incrementar el nivel de paralelismo, y por ende de aceleración, o bien para aumentar la redundancia, y por lo tanto el nivel de tolerancia a fallos. Al mismo tiempo, usar un numero óptimo de recursos para una tarea mejora el consumo energético ya que bien es posible disminuir la potencia instantánea consumida, o bien el tiempo de procesamiento. Con el objetivo de mantener los niveles de complejidad dentro de unos límites lógicos, es importante que los cambios realizados en el hardware sean totalmente transparentes para el código de aplicación. A este respecto, se incluyen distintos niveles de transparencia: • Transparencia a la escalabilidad: los recursos usados por una misma tarea pueden ser modificados sin que el código de aplicación sufra ningún cambio. • Transparencia al rendimiento: el sistema aumentara su rendimiento cuando la carga de trabajo aumente, sin cambios en el código de aplicación. • Transparencia a la replicación: es posible usar múltiples instancias de un mismo módulo bien para añadir redundancia o bien para incrementar la capacidad de procesamiento. Todo ello sin que el código de aplicación cambie. • Transparencia a la posición: la posición física de los módulos hardware es arbitraria para su direccionamiento desde el código de aplicación. • Transparencia a los fallos: si existe un fallo en un módulo hardware, gracias a la redundancia, el código de aplicación tomará directamente el resultado correcto. • Transparencia a la concurrencia: el hecho de que una tarea sea realizada por más o menos bloques es transparente para el código que la invoca. Por lo tanto, esta tesis doctoral contribuye en dos líneas diferentes. En primer lugar, con el diseño de la plataforma HiReCookie y en segundo lugar con el diseño de la arquitectura ARTICo3. Las principales contribuciones de esta tesis se resumen a continuación. • Arquitectura de la HiReCookie incluyendo: o Compatibilidad con la plataforma Cookies para incrementar las capacidades de esta. o División de la arquitectura en distintas islas de alimentación. o Implementación de los diversos modos de bajo consumo y políticas de despertado del nodo. o Creación de un archivo de configuración de la FPGA comprimido para reducir el tiempo y el consumo de la configuración inicial. • Diseño de la arquitectura reconfigurable para FPGAs basadas en RAM ARTICo3: o Modelo de computación y modos de ejecución inspirados en el modelo de CUDA pero basados en hardware reconfigurable con un número variable de bloques de hilos por cada unidad de ejecución. o Estructura para optimizar las transacciones de datos en ráfaga proporcionando datos en cascada o en paralelo a los distinto módulos incluyendo un proceso de votado por mayoría y operaciones de reducción. o Capa de abstracción entre el procesador principal que incluye el código de aplicación y los recursos asignados para las diferentes tareas. o Arquitectura de los módulos hardware reconfigurables para mantener la escalabilidad añadiendo una la interfaz para las nuevas funcionalidades con un simple acceso a una memoria RAM interna. o Caracterización online de las tareas para proporcionar información a un módulo de gestión de recursos para mejorar la operación en términos de energía y procesamiento cuando además se opera entre distintos nieles de tolerancia a fallos. El documento está dividido en dos partes principales formando un total de cinco capítulos. En primer lugar, después de motivar la necesidad de nuevas plataformas para cubrir las nuevas aplicaciones, se detalla el diseño de la plataforma HiReCookie, sus partes, las posibilidades para bajar el consumo energético y se muestran casos de uso de la plataforma así como pruebas de validación del diseño. La segunda parte del documento describe la arquitectura reconfigurable, su implementación en varias FPGAs, y pruebas de validación en términos de capacidad de procesamiento y consumo energético, incluyendo cómo estos aspectos se ven afectados por el nivel de tolerancia a fallos elegido. Los capítulos a lo largo del documento son los siguientes: El capítulo 1 analiza los principales objetivos, motivación y aspectos teóricos necesarios para seguir el resto del documento. El capítulo 2 está centrado en el diseño de la plataforma HiReCookie y sus posibilidades para disminuir el consumo de energía. El capítulo 3 describe la arquitectura reconfigurable ARTICo3. El capítulo 4 se centra en las pruebas de validación de la arquitectura usando la plataforma HiReCookie para la mayoría de los tests. Un ejemplo de aplicación es mostrado para analizar el funcionamiento de la arquitectura. El capítulo 5 concluye esta tesis doctoral comentando las conclusiones obtenidas, las contribuciones originales del trabajo y resultados y líneas futuras. ABSTRACT This PhD Thesis is framed within the field of dynamically reconfigurable embedded systems, advanced sensor networks and distributed computing. The document is centred on the study of processing solutions for high-performance autonomous distributed systems (HPADS) as well as their evolution towards High performance Computing (HPC) systems. The approach of the study is focused on both platform and processor levels to optimise critical aspects such as computing performance, energy efficiency and fault tolerance. HPADS are considered feedback systems, normally networked and/or distributed, with real-time adaptive and predictive functionality. These systems, as part of more complex systems known as Cyber-Physical Systems (CPSs), can be applied in a wide range of fields such as military, health care, manufacturing, aerospace, etc. For the design of HPADS, high levels of dependability, the definition of suitable models of computation, and the use of methodologies and tools to support scalability and complexity management, are required. The first part of the document studies the different possibilities at platform design level in the state of the art, together with description, development and validation tests of the platform proposed in this work to cope with the previously mentioned requirements. The main objectives targeted by this platform design are the following: • Study the feasibility of using SRAM-based FPGAs as the main processor of the platform in terms of energy consumption and performance for high demanding applications. • Analyse and propose energy management techniques to reduce energy consumption in every stage of the working profile of the platform. • Provide a solution with dynamic partial and wireless remote HW reconfiguration (DPR) to be able to change certain parts of the FPGA design at run time and on demand without interrupting the rest of the system. • Demonstrate the applicability of the platform in different test-bench applications. In order to select the best approach for the platform design in terms of processing alternatives, a study of the evolution of the state-of-the-art platforms is required to analyse how different architectures cope with new more demanding applications and scenarios: security, mixed-critical systems for aerospace, multimedia applications, or military environments, among others. In all these scenarios, important changes in the required processing bandwidth or the complexity of the algorithms used are provoking the migration of the platforms from single microprocessor architectures to multiprocessing and heterogeneous solutions with more instant power consumption but higher energy efficiency. Within these solutions, FPGAs and Systems on Chip including FPGA fabric and dedicated hard processors, offer a good trade of among flexibility, processing performance, energy consumption and price, when they are used in demanding applications where working conditions are very likely to vary over time and high complex algorithms are required. The platform architecture proposed in this PhD Thesis is called HiReCookie. It includes an SRAM-based FPGA as the main and only processing unit. The FPGA selected, the Xilinx Spartan-6 LX150, was at the beginning of this work the best choice in terms of amount of resources and power. Although, the power levels are the lowest of these kind of devices, they can be still very high for distributed systems that normally work powered by batteries. For that reason, it is necessary to include different energy saving possibilities to increase the usability of the platform. In order to reduce energy consumption, the platform architecture is divided into different power islands so that only those parts of the systems that are strictly needed are powered on, while the rest of the islands can be completely switched off. This allows a combination of different low power modes to decrease energy. In addition, one of the most important handicaps of SRAM-based FPGAs is that they are not alive at power up. Therefore, recovering the system from a switch-off state requires to reload the FPGA configuration from a non-volatile memory device. For that reason, this PhD Thesis also proposes a methodology to compress the FPGA configuration file in order to reduce time and energy during the initial configuration process. Although some of the requirements for the design of HPADS are already covered by the design of the HiReCookie platform, it is necessary to continue improving energy efficiency, computing performance and fault tolerance. This is only possible by exploiting all the opportunities provided by the processing architectures configured inside the FPGA. Therefore, the second part of the thesis details the design of the so called ARTICo3 FPGA architecture to enhance the already intrinsic capabilities of the FPGA. ARTICo3 is a DPR-capable bus-based virtual architecture for multiple HW acceleration in SRAM-based FPGAs. The architecture provides support for dynamic resource management in real time. In this way, by using DPR, it will be possible to change the levels of computing performance, energy consumption and fault tolerance on demand by increasing or decreasing the amount of resources used by the different tasks. Apart from the detailed design of the architecture and its implementation in different FPGA devices, different validation tests and comparisons are also shown. The main objectives targeted by this FPGA architecture are listed as follows: • Provide a method based on a multithread approach such as those offered by CUDA (Compute Unified Device Architecture) or OpenCL kernel executions, where kernels are executed in a variable number of HW accelerators without requiring application code changes. • Provide an architecture to dynamically adapt working points according to either self-measured or external parameters in terms of energy consumption, fault tolerance and computing performance. Taking advantage of DPR capabilities, the architecture must provide support for a dynamic use of resources in real time. • Exploit concurrent processing capabilities in a standard bus-based system by optimizing data transactions to and from HW accelerators. • Measure the advantage of HW acceleration as a technique to boost performance to improve processing times and save energy by reducing active times for distributed embedded systems. • Dynamically change the levels of HW redundancy to adapt fault tolerance in real time. • Provide HW abstraction from SW application design. FPGAs give the possibility of designing specific HW blocks for every required task to optimise performance while some of them include the possibility of including DPR. Apart from the possibilities provided by manufacturers, the way these HW modules are organised, addressed and multiplexed in area and time can improve computing performance and energy consumption. At the same time, fault tolerance and security techniques can also be dynamically included using DPR. However, the inherent complexity of designing new HW modules for every application is not negligible. It does not only consist of the HW description, but also the design of drivers and interfaces with the rest of the system, while the design space is widened and more complex to define and program. Even though the tools provided by the majority of manufacturers already include predefined bus interfaces, commercial IPs, and templates to ease application prototyping, it is necessary to improve these capabilities. By adding new architectures on top of them, it is possible to take advantage of parallelization and HW redundancy while providing a framework to ease the use of dynamic resource management. ARTICo3 works within a solution space where working points change at run time in a 3D space defined by three different axes: Computation, Consumption, and Fault Tolerance. Therefore, every working point is found as a trade-off solution among these three axes. By means of DPR, different accelerators can be multiplexed so that the amount of available resources for any application is virtually unlimited. Taking advantage of DPR capabilities and a novel way of transmitting data to the reconfigurable HW accelerators, it is possible to dedicate a dynamically-changing number of resources for a given task in order to either boost computing speed or adding HW redundancy and a voting process to increase fault-tolerance levels. At the same time, using an optimised amount of resources for a given task reduces energy consumption by reducing instant power or computing time. In order to keep level complexity under certain limits, it is important that HW changes are transparent for the application code. Therefore, different levels of transparency are targeted by the system: • Scalability transparency: a task must be able to expand its resources without changing the system structure or application algorithms. • Performance transparency: the system must reconfigure itself as load changes. • Replication transparency: multiple instances of the same task are loaded to increase reliability and performance. • Location transparency: resources are accessed with no knowledge of their location by the application code. • Failure transparency: task must be completed despite a failure in some components. • Concurrency transparency: different tasks will work in a concurrent way transparent to the application code. Therefore, as it can be seen, the Thesis is contributing in two different ways. First with the design of the HiReCookie platform and, second with the design of the ARTICo3 architecture. The main contributions of this PhD Thesis are then listed below: • Architecture of the HiReCookie platform including: o Compatibility of the processing layer for high performance applications with the Cookies Wireless Sensor Network platform for fast prototyping and implementation. o A division of the architecture in power islands. o All the different low-power modes. o The creation of the partial-initial bitstream together with the wake-up policies of the node. • The design of the reconfigurable architecture for SRAM FPGAs: ARTICo3: o A model of computation and execution modes inspired in CUDA but based on reconfigurable HW with a dynamic number of thread blocks per kernel. o A structure to optimise burst data transactions providing coalesced or parallel data to HW accelerators, parallel voting process and reduction operation. o The abstraction provided to the host processor with respect to the operation of the kernels in terms of the number of replicas, modes of operation, location in the reconfigurable area and addressing. o The architecture of the modules representing the thread blocks to make the system scalable by adding functional units only adding an access to a BRAM port. o The online characterization of the kernels to provide information to a scheduler or resource manager in terms of energy consumption and processing time when changing among different fault-tolerance levels, as well as if a kernel is expected to work in the memory-bounded or computing-bounded areas. The document of the Thesis is divided into two main parts with a total of five chapters. First, after motivating the need for new platforms to cover new more demanding applications, the design of the HiReCookie platform, its parts and several partial tests are detailed. The design of the platform alone does not cover all the needs of these applications. Therefore, the second part describes the architecture inside the FPGA, called ARTICo3, proposed in this PhD Thesis. The architecture and its implementation are tested in terms of energy consumption and computing performance showing different possibilities to improve fault tolerance and how this impact in energy and time of processing. Chapter 1 shows the main goals of this PhD Thesis and the technology background required to follow the rest of the document. Chapter 2 shows all the details about the design of the FPGA-based platform HiReCookie. Chapter 3 describes the ARTICo3 architecture. Chapter 4 is focused on the validation tests of the ARTICo3 architecture. An application for proof of concept is explained where typical kernels related to image processing and encryption algorithms are used. Further experimental analyses are performed using these kernels. Chapter 5 concludes the document analysing conclusions, comments about the contributions of the work, and some possible future lines for the work.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los servicios telemáticos han transformando la mayoría de nuestras actividades cotidianas y ofrecen oportunidades sin precedentes con características como, por ejemplo, el acceso ubicuo, la disponibilidad permanente, la independencia del dispositivo utilizado, la multimodalidad o la gratuidad, entre otros. No obstante, los beneficios que destacan en cuanto se reflexiona sobre estos servicios, tienen como contrapartida una serie de riesgos y amenazas no tan obvios, ya que éstos se nutren de y tratan con datos personales, lo cual suscita dudas respecto a la privacidad de las personas. Actualmente, las personas que asumen el rol de usuarios de servicios telemáticos generan constantemente datos digitales en distintos proveedores. Estos datos reflejan parte de su intimidad, de sus características particulares, preferencias, intereses, relaciones sociales, hábitos de consumo, etc. y lo que es más controvertido, toda esta información se encuentra bajo la custodia de distintos proveedores que pueden utilizarla más allá de las necesidades y el control del usuario. Los datos personales y, en particular, el conocimiento sobre los usuarios que se puede extraer a partir de éstos (modelos de usuario) se han convertido en un nuevo activo económico para los proveedores de servicios. De este modo, estos recursos se pueden utilizar para ofrecer servicios centrados en el usuario basados, por ejemplo, en la recomendación de contenidos, la personalización de productos o la predicción de su comportamiento, lo cual permite a los proveedores conectar con los usuarios, mantenerlos, involucrarlos y en definitiva, fidelizarlos para garantizar el éxito de un modelo de negocio. Sin embargo, dichos recursos también pueden utilizarse para establecer otros modelos de negocio que van más allá de su procesamiento y aplicación individual por parte de un proveedor y que se basan en su comercialización y compartición con otras entidades. Bajo esta perspectiva, los usuarios sufren una falta de control sobre los datos que les refieren, ya que esto depende de la voluntad y las condiciones impuestas por los proveedores de servicios, lo cual implica que habitualmente deban enfrentarse ante la disyuntiva de ceder sus datos personales o no acceder a los servicios telemáticos ofrecidos. Desde el sector público se trata de tomar medidas que protejan a los usuarios con iniciativas y legislaciones que velen por su privacidad y que aumenten el control sobre sus datos personales, a la vez que debe favorecer el desarrollo económico propiciado por estos proveedores de servicios. En este contexto, esta tesis doctoral propone una arquitectura y modelo de referencia para un ecosistema de intercambio de datos personales centrado en el usuario que promueve la creación, compartición y utilización de datos personales y modelos de usuario entre distintos proveedores, al mismo tiempo que ofrece a los usuarios las herramientas necesarias para ejercer su control en cuanto a la cesión y uso de sus recursos personales y obtener, en su caso, distintos incentivos o contraprestaciones económicas. Las contribuciones originales de la tesis son la especificación y diseño de una arquitectura que se apoya en un proceso de modelado distribuido que se ha definido en el marco de esta investigación. Éste se basa en el aprovechamiento de recursos que distintas entidades (fuentes de datos) ofrecen para generar modelos de usuario enriquecidos que cubren las necesidades específicas de terceras entidades, considerando la participación del usuario y el control sobre sus recursos personales (datos y modelos de usuario). Lo anterior ha requerido identificar y caracterizar las fuentes de datos con potencial de abastecer al ecosistema, determinar distintos patrones para la generación de modelos de usuario a partir de datos personales distribuidos y heterogéneos y establecer una infraestructura para la gestión de identidad y privacidad que permita a los usuarios expresar sus preferencias e intereses respecto al uso y compartición de sus recursos personales. Además, se ha definido un modelo de negocio de referencia que sustenta las investigaciones realizadas y que ha sido particularizado en dos ámbitos de aplicación principales, en concreto, el sector de publicidad en redes sociales y el sector financiero para la implantación de nuevos servicios. Finalmente, cabe destacar que las contribuciones de esta tesis han sido validadas en el contexto de distintos proyectos de investigación industrial aplicada y también en el marco de proyectos fin de carrera que la autora ha tutelado o en los que ha colaborado. Los resultados obtenidos han originado distintos méritos de investigación como dos patentes en explotación, la publicación de un artículo en una revista con índice de impacto y diversos artículos en congresos internacionales de relevancia. Algunos de éstos han sido galardonados con premios de distintas instituciones, así como en las conferencias donde han sido presentados. ABSTRACT Information society services have changed most of our daily activities, offering unprecedented opportunities with certain characteristics, such as: ubiquitous access, permanent availability, device independence, multimodality and free-of-charge services, among others. However, all the positive aspects that emerge when thinking about these services have as counterpart not-so-obvious threats and risks, because they feed from and use personal data, thus creating concerns about peoples’ privacy. Nowadays, people that play the role of user of services are constantly generating digital data in different service providers. These data reflect part of their intimacy, particular characteristics, preferences, interests, relationships, consumer behavior, etc. Controversy arises because this personal information is stored and kept by the mentioned providers that can use it beyond the user needs and control. Personal data and, in particular, the knowledge about the user that can be obtained from them (user models) have turned into a new economic asset for the service providers. In this way, these data and models can be used to offer user centric services based, for example, in content recommendation, tailored-products or user behavior, all of which allows connecting with the users, keeping them more engaged and involved with the provider, finally reaching customer loyalty in order to guarantee the success of a business model. However, these resources can be used to establish a different kind of business model; one that does not only processes and individually applies personal data, but also shares and trades these data with other entities. From that perspective, the users lack control over their referred data, because it depends from the conditions imposed by the service providers. The consequence is that the users often face the following dilemma: either giving up their personal data or not using the offered services. The Public Sector takes actions in order to protect the users approving, for example, laws and legal initiatives that reinforce privacy and increase control over personal data, while at the same time the authorities are also key players in the economy development that derives from the information society services. In this context, this PhD Dissertation proposes an architecture and reference model to achieve a user-centric personal data ecosystem that promotes the creation, sharing and use of personal data and user models among different providers, while offering users the tools to control who can access which data and why and if applicable, to obtain different incentives. The original contributions obtained are the specification and design of an architecture that supports a distributed user modelling process defined by this research. This process is based on leveraging scattered resources of heterogeneous entities (data sources) to generate on-demand enriched user models that fulfill individual business needs of third entities, considering the involvement of users and the control over their personal resources (data and user models). This has required identifying and characterizing data sources with potential for supplying resources, defining different generation patterns to produce user models from scattered and heterogeneous data, and establishing identity and privacy management infrastructures that allow users to set their privacy preferences regarding the use and sharing of their resources. Moreover, it has also been proposed a reference business model that supports the aforementioned architecture and this has been studied for two application fields: social networks advertising and new financial services. Finally, it has to be emphasized that the contributions obtained in this dissertation have been validated in the context of several national research projects and master thesis that the author has directed or has collaborated with. Furthermore, these contributions have produced different scientific results such as two patents and different publications in relevant international conferences and one magazine. Some of them have been awarded with different prizes.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Los sistemas de adquisición de datos utilizados en los diagnósticos de los dispositivos de fusión termonuclear se enfrentan a importantes retos planteados en los dispositivos de pulso largo. Incluso en los dispositivos de pulso corto, en los que se analizan los datos después de la descarga, existen aún una gran cantidad de datos sin analizar, lo cual supone que queda una gran cantidad de conocimiento por descubrir dentro de las bases de datos existentes. En la última década, la comunidad de fusión ha realizado un gran esfuerzo para mejorar los métodos de análisis off‐line para mejorar este problema, pero no se ha conseguido resolver completamente, debido a que algunos de estos métodos han de resolverse en tiempo real. Este paradigma lleva a establecer que los dispositivos de pulso largo deberán incluir dispositivos de adquisición de datos con capacidades de procesamiento local, capaces de ejecutar avanzados algoritmos de análisis. Los trabajos de investigación realizados en esta tesis tienen como objetivo determinar si es posible incrementar la capacidad local de procesamiento en tiempo real de dichos sistemas mediante el uso de GPUs. Para ello durante el trascurso del periodo de experimentación realizado se han evaluado distintas propuestas a través de casos de uso reales elaborados para algunos de los dispositivos de fusión más representativos como ITER, JET y TCV. Las conclusiones y experiencias obtenidas en dicha fase han permitido proponer un modelo y una metodología de desarrollo para incluir esta tecnología en los sistemas de adquisición para diagnósticos de distinta naturaleza. El modelo define no sólo la arquitectura hardware óptima para realizar dicha integración, sino también la incorporación de este nuevo recurso de procesamiento en los Sistemas de Control de Supervisión y Adquisición de Datos (SCADA) utilizados en la comunidad de fusión (EPICS), proporcionando una solución completa. La propuesta se complementa con la definición de una metodología que resuelve las debilidades detectadas, y permite trazar un camino de integración de la solución en los estándares hardware y software existentes. La evaluación final se ha realizado mediante el desarrollo de un caso de uso representativo de los diagnósticos que necesitan adquisición y procesado de imágenes en el contexto del dispositivo internacional ITER, y ha sido testeada con éxito en sus instalaciones. La solución propuesta en este trabajo ha sido incluida por la ITER IO en su catálogo de soluciones estándar para el desarrollo de sus futuros diagnósticos. Por otra parte, como resultado y fruto de la investigación de esta tesis, cabe destacar el acuerdo llevado a cabo con la empresa National Instruments en términos de transferencia tecnológica, lo que va a permitir la actualización de los sistemas de adquisición utilizados en los dispositivos de fusión. ABSTRACT Data acquisition systems used in the diagnostics of thermonuclear fusion devices face important challenges due to the change in the data acquisition paradigm needed for long pulse operation. Even in shot pulse devices, where data is mainly analyzed after the discharge has finished , there is still a large amount of data that has not been analyzed, therefore producing a lot of buried knowledge that still lies undiscovered in the data bases holding the vast amount of data that has been generated. There has been a strong effort in the fusion community in the last decade to improve the offline analysis methods to overcome this problem, but it has proved to be insufficient unless some of these mechanisms can be run in real time. In long pulse devices this new paradigm, where data acquisition devices include local processing capabilities to be able to run advanced data analysis algorithms, will be a must. The research works done in this thesis aim to determining whether it is possible to increase local capacity for real‐time processing of such systems by using GPUs. For that, during the experimentation period, various proposals have been evaluated through use cases developed for several of the most representative fusion devices, ITER, JET and TCV. Conclusions and experiences obtained have allowed to propose a model, and a development methodology, to include this technology in systems for diagnostics of different nature. The model defines not only the optimal hardware architecture for achieving this integration, but also the incorporation of this new processing resource in one of the Systems of Supervision Control and Data Acquisition (SCADA) systems more relevant at the moment in the fusion community (EPICS), providing a complete solution. The final evaluation has been performed through a use case developed for a generic diagnostic requiring image acquisition and processing for the international ITER device, and has been successfully tested in their premises. The solution proposed in this thesis has been included by the ITER IO in his catalog of standard solutions for the development of their future diagnostics. This has been possible thanks to the technologic transfer agreement signed with xi National Instruments which has permitted us to modify and update one of their core software products targeted for the acquisition systems used in these devices.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Poelzig affirmed that the technical ideal consisted of using the least amount of shapes and materials possible. He understood architecture as an art, as the expression of form; In contrast to the indifference of the most widely recognized values of modernism: technical innovation in construction along with the functionality of buildings. The Haus des Rundfunks is a powerful hermetic factory in the shape of a triangle and of uniform height. Mass, geometric rigidity and the absence of textures make up a building which relinquishes expressing the new media, with a perimeter ring consisting of offices and larger spaces that are more characteristic towards their inside. Geometry is used as a means to organize and limit the shapes of the buildings. The arrangement and division of different intercommunicating spaces are subjected to the crudeness of their geometric limits. Interior spaces ranging from the most static to the most dynamic are defined through the qualities of materials and geometries. This turns the spaces into geometric grids which decompose the wall, floor and ceiling planes into fragments, regardless of the constructive reality provided by a metallic frame structure. Its polyhedral lamps enclose artificial and emphasize the value of the grid. Poelzig limits himself to dealing with planes within a closed volume of uniform height, and maintains geometric rigidity compatible with a certain degree of figurativeness. This article tries to bring to life this exemplary building, marked by its passivity and hermetism.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Architecture 2000, publicado por Charles Jencks originalmente en el año 1971, es un libro cuyo objetivo explícito es predecir el futuro de la arquitectura hasta el fi nal del siglo XX y este hecho ha favorecido que se haya editado por segunda vez precisamente ese emblemático año 2000, manteniendo fundamentalmente el contenido original, aunque añadiendo una introducción y un capítulo final en los que se ofrece una evaluación de lo dicho treinta años antes. En este nuevo Architecture 2000, Jencks añade al texto principal sus comentarios sobre lo acertado o erróneo de sus predicciones anteriores, juzgadas ahora a la luz de los hechos acontecidos y actualiza su mapa evolutivo con una nueva versión de su anterior Evolutionary Tree to the year 2000, que ahora pasará a denominarse Evolutionary Tree of the 20th century architecture. No hay duda de que lo más infl uyente y duradero de la obra de Jencks ha sido la representación gráfica de la evolución de la arquitectura a través de sus evolutionary trees. Pero, aunque Architecture 2000 debe ser valorada sobre todo como una aportación imprescindible para entender la arquitectura de la segunda mitad del siglo XX, tanto por su identifi cación de las tendencias a través de los que se han conducido las experiencias de los profesionales como por su concepción dinámica de la arquitectura plasmada gráfi camente a través de sus evolutionary trees, sería un error considerarla como mera historia y dar por amortizados los métodos prospectivos o los juicios y expectativas del autor sobre lo acontecido en la arquitectura a lo largo de las últimas décadas.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

En medio de un bosque danés, de altos arboles que se mueven al fuerte viento nórdico bajo el débil sol de las latitudes altas, y cargado de unos cuantos tableros de madera que consiguió de una exposición ya terminada, realizó Utzon su maqueta a escala real de su primera casa familiar en Hellebæk (1950-52) a la edad de treinta y dos años. De la misma manera que el pintor William Turner necesitó atarse a lo alto de un mástil de un barco, para vivir en directo una de las muchas tormentas que tantas y tantas veces había pintado en sus cuadros, el joven Utzon consideró indispensable introducirse dentro de la maqueta de su propia casa antes de construirla, para valorar in situ las potencialidades de aquel proyecto en relación al lugar. La obra de Jørn Utzon (1918-2008) es una arquitectura expectante y atenta del lugar donde se ubica. Jørn Utzon es un arquitecto de origen nórdico, que descubre su verdadera idiosincrasia en la cultura mediterránea, cultura en la que reside durante casi la mitad de toda su vida. Esta tesis se ha centrado en analizar exhaustivamente la relación de su arquitectura doméstica con el lugar donde se halla. Aspecto tan citado en la bibliografía existente de su obra, aunque nunca desarrollado de manera exhaustiva. El objetivo del análisis ha sido intentar encontrar invariantes o patrones que pudieran subyacer en su obra residencial en relación a ese tema. Para dicho análisis, se ha tomado una muestra suficientemente amplia de veinte viviendas o conjuntos residenciales (entre ellas sus cuatro viviendas familiares proyectadas), repartidas por cinco países (Suecia, Dinamarca, Reino Unido, España y Nueva Gales del Sur), que constituyen la tercera parte de su obra doméstica y la mitad de su obra construida residencial, así como las citas explícitas del autor sobre este tema en su obra escrita, y los planos o croquis de su obra gráfica. Como metodología de trabajo se ha recurrido a la consulta de las fuentes primarias: viajando y conociendo in-situ las casas seleccionadas en Dinamarca, Suecia, España y Australia; viviendo un mes en una de las casas (Can Lis) gracias a una beca del Gobierno danés y la Utzon Foundation; y realizando entrevistas a las personas que más cerca estuvieron del arquitecto en su entorno familiar y profesional. Asimismo, también se ha publicado parte de su contenido en medios internacionales: 4th International Utzon Symposium (7/3/2013-9/3/2014) y la página web oficial de Can Lis dependiente de la Utzon Foundation (www.canlis.dk). Las doce invariantes encontradas en relación al proyecto y lugar en los proyectos seleccionados, han sido agrupadas en torno a tres grandes elementos sobre los que Utzon constantemente reflexiona en sus escritos propios: horizonte, sol y material autóctono. Elementos que tienen su origen en la influencia que la navegación tuvo en su vida, y en su carácter espiritual y austero en lo material. La historia de Utzon es la de un nórdico, de vocación navegante, que encuentra su lugar en la cultura mediterránea, rodeado entre piedras de Marés, mientras divisa en silencio el horizonte marino en el umbral entre luz y sombra. ABSTRACT In the middle of a Danish forest, with high trees which move with the Nordic wind under the weak sun of high latitudes, and with the help of some wooden canvases acquired from an already completed exhibition, Jørn Utzon built a real-scale model of his first family house in Hellebæk (1950-52) at the age of thirty-two. In the same way that William Turner needed to be tied up on the top of a boat flagpole in order to have a first-hand experience of one of the many storms that he had depicted in his paintings so many times before, the young Utzon thought it was crucial to go into the model of his own house before building it, to evaluate in situ the potential of that project in relation to the place. Utzon’s work is architecture interested in and attentive of the place where it is situated. Jørn Utzon (1918-2008) is an architect of Nordic origin who discovered his own idiosyncrasy in the Mediterranean culture, in which he resided for half of his live. This thesis has focused on an exhaustive analysis of the relation between his domestic architecture and the place where it is located. This issue has been often cited in the existing bibliography, although it has never been exhaustively developed. The analysis objective has been to attempt to find invariants and patterns that could exist in his domestic work in relation to this subject. For this analysis, a sufficiently large sample has been selected: twenty houses or housing complexes (among others his own four family houses), distributed in five countries (Sweden, Denmark, United Kingdom, Spain and New South Wales), which constitute the third part of his domestic work, and half of his residential constructed projects, as well as Utzon’s written texts about this theme, and the drawings and sketches of his graphic work. The methodology used was based on consultation of primary sources: travelling and examining in situ the selected houses in Denmark, Sweden, Spain and Australia; living for a month in one of the houses (Can Lis) thanks to a research grant from the Danish Government and the Utzon Foundation; and interviewing people from his closest family and professional circles. Furthermore, part of the thesis has been published in international media: 4th International Utzon Symposium (7/3/2013-9/3/2014) and on the official web site of Can Lis, an Utzon Foundation subsidiary(www.canlis.dk). The twelve invariants discovered in relation to the project and the location of the selected projects, have been grouped according to three elements which Utzon continuously reflects upon in his own writings: the horizon, the sun and autochthonous material. Elements which originate from the influence that navigation had in his life, and from his spiritual and austere character. The story of Utzon is that of a Nordic person, with the vocation of a navigator, who found his place in the Mediterranean culture, surrounded with Marés stones, while silently making out the sea horizon on the threshold between light and shadow.