901 resultados para Filter-rectify-filter-model
Resumo:
Con esta disertación se pretenden resolver algunos de los problemas encontrados actualmente en la recepción de señales de satélites bajo dos escenarios particularmente exigentes: comunicaciones de Espacio Profundo y en banda Ka. Las comunicaciones con sondas de Espacio Profundo necesitan grandes aperturas en tierra para poder incrementar la velocidad de datos. La opción de usar antennas con diámetro mayor de 35 metros tiene serios problemas, pues antenas tan grandes son caras de mantener, difíciles de apuntar, pueden tener largos tiempo de reparación y además tienen una efeciencia decreciente a medida que se utilizan bandas más altas. Soluciones basadas en agrupaciones de antenas de menor tamaño (12 ó 35 metros) son mas ecónomicas y factibles técnicamente. Las comunicaciones en banda Ka tambien pueden beneficiarse de la combinación de múltiples antennas. Las antenas de menor tamaño son más fáciles de apuntar y además tienen un campo de visión mayor. Además, las técnicas de diversidad espacial pueden ser reemplazadas por una combinación de antenas para así incrementar el margen del enlace. La combinación de antenas muy alejadas sobre grandes anchos de banda, bien por recibir una señal de banda ancha o múltiples de banda estrecha, es complicada técnicamente. En esta disertación se demostrará que el uso de conformador de haz en el dominio de la frecuencia puede ayudar a relajar los requisitos de calibración y, al mismo tiempo, proporcionar un mayor campo de visión y mayores capacidades de ecualización. Para llevar esto a cabo, el trabajo ha girado en torno a tres aspectos fundamentales. El primero es la investigación bibliográfica del trabajo existente en este campo. El segundo es el modelado matemático del proceso de combinación y el desarrollo de nuevos algoritmos de estimación de fase y retardo. Y el tercero es la propuesta de nuevas aplicaciones en las que usar estas técnicas. La investigación bibliográfica se centra principalmente en los capítulos 1, 2, 4 y 5. El capítulo 1 da una breve introducción a la teoría de combinación de antenas de gran apertura. En este capítulo, los principales campos de aplicación son descritos y además se establece la necesidad de compensar retardos en subbandas. La teoría de bancos de filtros se expone en el capítulo 2; se selecciona y simula un banco de filtros modulado uniformemente con fase lineal. Las propiedades de convergencia de varios filtros adaptativos se muestran en el capítulo 4. Y finalmente, las técnicas de estimación de retardo son estudiadas y resumidas en el capítulo 5. Desde el punto de vista matemático, las principales contribución de esta disertación han sido: • Sección 3.1.4. Cálculo de la desviación de haz de un conformador de haz con compensación de retardo en pasos discretos en frecuencia intermedia. • Sección 3.2. Modelo matemático de un conformador de haz en subbandas. • Sección 3.2.2. Cálculo de la desviación de haz de un conformador de haz en subbandas con un buffer de retardo grueso. • Sección 3.2.4. Análisis de la influencia de los alias internos en la compensación en subbandas de retardo y fase. • Sección 3.2.4.2. Cálculo de la desviación de haz de un conformador de haz con compensación de retardo en subbandas. • Sección 3.2.6. Cálculo de la ganancia de relación señal a ruido de la agrupación de antenas en cada una de las subbandas. • Sección 3.3.2. Modelado de la función de transferencia de la agrupación de antenas bajo errores de estimación de retardo. • Sección 3.3.3. Modelado de los efectos de derivas de fase y retardo entre actualizaciones de las estimaciones. • Sección 3.4. Cálculo de la directividad de la agrupación de antenas con y sin compensación de retardos en subbandas. • Sección 5.2.6. Desarrollo de un algorimo para estimar la fase y el retardo entre dos señales a partir de su descomposición de subbandas bajo entornos estacionarios. • Sección 5.5.1. Desarrollo de un algorimo para estimar la fase, el retardo y la deriva de retardo entre dos señales a partir de su descomposición de subbandas bajo entornos no estacionarios. Las aplicaciones que se pueden beneficiar de estas técnicas son descritas en el capítulo 7: • Sección 6.2. Agrupaciones de antenas para comunicaciones de Espacio Profundo con capacidad multihaz y sin requisitos de calibración geométrica o de retardo de grupo. • Sección 6.2.6. Combinación en banda ancha de antenas con separaciones de miles de kilómetros, para recepción de sondas de espacio profundo. • Secciones 6.4 and 6.3. Combinación de estaciones remotas en banda Ka en escenarios de diversidad espacial, para recepción de satélites LEO o GEO. • Sección 6.3. Recepción de satélites GEO colocados con arrays de antenas multihaz. Las publicaciones a las que ha dado lugar esta tesis son las siguientes • A. Torre. Wideband antenna arraying over long distances. Interplanetary Progress Report, 42-194:1–18, 2013. En esta pulicación se resumen los resultados de las secciones 3.2, 3.2.2, 3.3.2, los algoritmos en las secciones 5.2.6, 5.5.1 y la aplicación destacada en 6.2.6. • A. Torre. Reception of wideband signals from geostationary collocated satellites with antenna arrays. IET Communications, Vol. 8, Issue 13:2229–2237, September, 2014. En esta segunda se muestran los resultados de la sección 3.2.4, el algoritmo en la sección 5.2.6.1 , y la aplicación mostrada en 6.3. ABSTRACT This dissertation is an attempt to solve some of the problems found nowadays in the reception of satellite signals under two particular challenging scenarios: Deep Space and Ka-band communications. Deep Space communications require from larger apertures on ground in order to increase the data rate. The option of using single dishes with diameters larger than 35 meters has severe drawbacks. Such antennas are expensive to maintain, prone to long downtimes, difficult to point and have a degraded performance in high frequency bands. The array solution, either with 12 meter or 35 meter antennas is deemed to be the most economically and technically feasible solution. Ka-band communications can also benefit from antenna arraying technology. The smaller aperture antennas that make up the array are easier to point and have a wider field of view allowing multiple simultaneous beams. Besides, site diversity techniques can be replaced by pure combination in order to increase link margin. Combination of far away antennas over a large bandwidth, either because a wideband signal or multiple narrowband signals are received, is a demanding task. This dissertation will show that the use of frequency domain beamformers with subband delay compensation can help to ease calibration requirements and, at the same time, provide with a wider field of view and enhanced equalization capabilities. In order to do so, the work has been focused on three main aspects. The first one is the bibliographic research of previous work on this subject. The second one is the mathematical modeling of the array combination process and the development of new phase/delay estimation algorithms. And the third one is the proposal of new applications in which these techniques can be used. Bibliographic research is mainly done in chapters 1, 2, 4 and 5. Chapter 1 gives a brief introduction to previous work in the field of large aperture antenna arraying. In this chapter, the main fields of application are described and the need for subband delay compensation is established. Filter bank theory is shown in chapter 2; a linear phase uniform modulated filter bank is selected and simulated under diverse conditions. The convergence properties of several adaptive filters are shown in chapter 4. Finally, delay estimation techniques are studied and summarized in chapter 5. From a mathematical point of view, the main contributions of this dissertation have been: • Section 3.1.4. Calculation of beam squint of an IF beamformer with delay compensation at discrete time steps. • Section 3.2. Establishment of a mathematical model of a subband beamformer. • Section 3.2.2. Calculation of beam squint in a subband beamformer with a coarse delay buffer. • Section 3.2.4. Analysis of the influence of internal aliasing on phase and delay subband compensation. • Section 3.2.4.2. Calculation of beam squint of a beamformer with subband delay compensation. • Section 3.2.6. Calculation of the array SNR gain at each of the subbands. • Section 3.3.2. Modeling of the transfer function of an array subject to delay estimation errors. • Section 3.3.3. Modeling of the effects of phase and delay drifts between estimation updates. • Section 3.4. Calculation of array directivity with and without subband delay compensation. • Section 5.2.6. Development of an algorithm to estimate relative delay and phase between two signals from their subband decomposition in stationary environments. • Section 5.5.1. Development of an algorithm to estimate relative delay rate, delay and phase between two signals from their subband decomposition in non stationary environments. The applications that can benefit from these techniques are described in chapter 7: • Section 6.2. Arrays of antennas for Deep Space communications with multibeam capacity and without geometric or group delay calibration requirement. • Section 6.2.6. Wideband antenna arraying over long distances, in the range of thousands of kilometers, for reception of Deep Space probes. • Sections 6.4 y 6.3. Combination of remote stations in Ka-band site diversity scenarios for reception of LEO or GEO satellites. • Section 6.3. Reception of GEO collocated satellites with multibeam antenna arrays. The publications that have been made from the work in this dissertation are • A. Torre. Wideband antenna arraying over long distances. Interplanetary Progress Report, 42-194:1–18, 2013. This article shows the results in sections 3.2, 3.2.2, 3.3.2, the algorithms in sections 5.2.6, 5.5.1 and the application in section 6.2.6. • A. Torre. Reception of wideband signals from geostationary collocated satellites with antenna arrays. IET Communications, Vol. 8, Issue 13:2229–2237, September, 2014. This second article shows among others the results in section 3.2.4, the algorithm in section 5.2.6.1 , and the application in section 6.3.
Sistema de adquisición de datos para una aplicación de detección del ruido de reversa en tiempo real
Resumo:
Entre todas las fuentes de ruido, la activación de la propulsión en reversa de un avión después de aterrizar es conocida por las autoridades del aeropuerto como una causa importante de impacto acústico, molestias y quejas en las proximidades vecinas de los aeropuertos. Por ello, muchos de los aeropuertos de todo el mundo han establecido restricciones en el uso de la reversa, especialmente en las horas de la noche. Una forma de reducir el impacto acústico en las actividades aeroportuarias es implementar herramientas eficaces para la detección de ruido en reversa en los aeropuertos. Para este proyecto de fin de carrera, aplicando la metodología TREND (Thrust Reverser Noise Detection), se pretende desarrollar un sistema software capaz de determinar que una aeronave que aterrice en la pista active el frenado en reversa en tiempo real. Para el diseño de la aplicación se plantea un modelo software, que se compone de dos módulos: El módulo de adquisición de señales acústicas, simula un sistema de captación por señales de audio. Éste módulo obtiene muestra de señales estéreo de ficheros de audio de formato “.WAV” o del sistema de captación, para acondicionar las muestras de audio y enviarlas al siguiente módulo. El sistema de captación (array de micrófonos), se encuentra situado en una localización cercana a la pista de aterrizaje. El módulo de procesado busca los eventos de detección aplicando la metodología TREND con las muestras acústicas que recibe del módulo de adquisición. La metodología TREND describe la búsqueda de dos eventos sonoros llamados evento 1 (EV1) y evento 2 (EV2); el primero de ellos, es el evento que se activa cuando una aeronave aterriza discriminando otros eventos sonoros como despegues de aviones y otros sonidos de fondo, mientras que el segundo, se producirá después del evento 1, sólo cuando la aeronave utilice la reversa para frenar. Para determinar la detección del evento 1, es necesario discriminar las señales ajenas al aterrizaje aplicando un filtrado en la señal capturada, después, se aplicará un detector de umbral del nivel de presión sonora y por último, se determina la procedencia de la fuente de sonido con respecto al sistema de captación. En el caso de la detección del evento 2, está basada en la implementación de umbrales en la evolución temporal del nivel de potencia acústica aplicando el modelo de propagación inversa, con ayuda del cálculo de la estimación de la distancia en cada instante de tiempo mientras el avión recorre la pista de aterrizaje. Con cada aterrizaje detectado se realiza una grabación que se archiva en una carpeta específica y todos los datos adquiridos, son registrados por la aplicación software en un fichero de texto. ABSTRACT. Among all noise sources, the activation of reverse thrust to slow the aircraft after landing is considered as an important cause of noise pollution by the airport authorities, as well as complaints and annoyance in the airport´s nearby locations. Therefore, many airports around the globe have restricted the use of reverse thrust, especially during the evening hours. One way to reduce noise impact on airport activities is the implementation of effective tools that deal with reverse noise detection. This Final Project aims to the development of a software system capable of detecting if an aircraft landing on the runway activates reverse thrust on real time, using the TREND (Thrust Reverser Noise Detection) methodology. To design this application, a two modules model is proposed: • The acoustic signals obtainment module, which simulates an audio waves based catchment system. This module obtains stereo signal samples from “.WAV” audio files or the catchment system in order to prepare these audio samples and send them to the next module. The catchment system (a microphone array) is located on a place near the landing runway. • The processing module, which looks for detection events among the acoustic samples received from the other module, using the TREND methodology. The TREND methodology describes the search of two sounds events named event 1 (EV1) and event 2 (EV2). The first is the event activated by a landing plane, discriminating other sound events such as background noises or taking off planes; the second one will occur after event one only when the aircraft uses reverse to slow down. To determine event 1 detection, signals outside the landing must be discriminated using a filter on the catched signal. A pressure level´s threshold detector will be used on the signal afterwards. Finally, the origin of the sound source is determined regarding the catchment system. The detection of event 2 is based on threshold implementations in the temporal evolution of the acoustic power´s level by using the inverse propagation model and calculating the distance estimation at each time step while the plane goes on the landing runway. A recording is made every time a landing is detected, which is stored in a folder. All acquired data are registered by the software application on a text file.
Resumo:
La diabetes mellitus es una enfermedad que se caracteriza por la nula o insuficiente producción de insulina, o la resistencia del organismo a la misma. La insulina es una hormona que ayuda a que la glucosa llegue a los tejidos periféricos y al sistema nervioso para suministrar energía. Actualmente existen dos tipos de terapias aplicada en tejido subcutáneo: mediante inyección múltiple realizada con plumas, y la otra es mediante infusión continua de insulina por bomba (CSII). El mayor problema de esta terapia son los retardos por la absorción, tanto de los carbohidratos como de la insulina, y los retardos introducidos por el sensor subcutáneo de glucosa que mide la glucosa del líquido intersticial, lo deseable es controlar la glucosa en sangre. Para intentar independizar al paciente de su enfermedad se está trabajando en el desarrollo del páncreas endocrino artificial (PEA) que dotaría al paciente de una bomba de insulina, un sensor de glucosa y un controlador, el cual se encargaría de la toma de decisiones de las infusiones de insulina. Este proyecto persigue el diseño de un regulador en modo de funcionamiento en CL, con el objetivo de conseguir una regulación óptima del nivel de glucosa en sangre. El diseño de dicho regulador va a ser acometido utilizando la teoría del control por modelo interno (IMC). Esta teoría se basa en la idea de que es necesario realimentar la respuesta de un modelo aproximado del proceso que se quiere controlar. La salida del modelo, comparada con la del proceso real nos da la incertidumbre del modelo de la planta, frente a la planta real. Dado que según la teoría del modelo interno, estas diferencias se dan en las altas frecuencias, la teoría IMC propone un filtro paso bajo como regulador en serie con la inversa del modelo de la planta para conseguir el comportamiento deseado. Además se pretende implementar un Predictor Smith para minimizar los efectos del retardo de la medida del sensor. En el proyecto para conseguir la viabilidad del PEA se ha adaptado el controlador IMC clásico utilizando las ganancias estáticas de un modelo de glucosa, a partir de la ruta subcutánea de infusión y la vía subcutánea de medida. El modo de funcionamiento del controlador en SCL mejora el rango de normoglucemia, necesitando la intervención del paciente indicando anticipadamente el momento de las ingestas al controlador. El uso de un control SCL con el Predictor de Smith mejora los resultados pues se añade al controlador una variable sobre las ingestas con la participación del paciente. ABSTRACT. Diabetes mellitus is a group of metabolic diseases in which a person has high blood sugar, due to the body does not produce enough insulin, or because cells do not respond to the insulin produced. The insulin is a hormone that helps the glucose to reach to outlying tissues and the nervous system to supply energy. There are currently two types of therapies applied in subcutaneous tissue: the first one consists in using the intensive therapy with an insulin pen, and the other one is by continuous subcutaneous insulin infusion (CSII). The biggest problems of this therapy are the delays caused by the absorption of carbohydrates and insulin, and the delays introduced by the subcutaneous glucose sensor that measures glucose from interstitial fluid, it is suitable to control glucose blood. To try to improve these patients quality of life, work is being done on the development of an artificial endocrine pancreas (PEA) consisting of a subcutaneous insulin pump, a subcutaneous glucose sensor and an algorithm of glucose control, which would calculate the bolus that the pump would infuse to patient. This project aims to design a controller for closed-loop therapy, with the objective of obtain an optimal regulation of blood glucose level. The design of this controller will be formed using the theory of internal model control (IMC). This theory is based on the uncertainties given by a model to feedback the system control. Output model, in comparison with the actual process gives the uncertainty of the plant model, compared to the real plant. Since the theory of the internal model, these differences occur at high frequencies, the theory proposes IMC as a low pass filter regulator in series with the inverse model of the plant to get the required behavior. In addition, it will implement a Smith Predictor to minimize the effects of the delay measurement sensor. The project for the viability of PEA has adapted the classic IMC controller using the gains static of glucose model from the subcutaneous infusion and subcutaneous measuring. In simulation the SemiClosed-Loop controller get on the normoglycemia range, requiring patient intervention announce the bolus priming connected to intakes. Using an SCL control with the Smith Predictor improves the outcome because a variable about intakes is added to the controller through patient intervention.
Resumo:
In recent years, the increasing sophistication of embedded multimedia systems and wireless communication technologies has promoted a widespread utilization of video streaming applications. It has been reported in 2013 that youngsters, aged between 13 and 24, spend around 16.7 hours a week watching online video through social media, business websites, and video streaming sites. Video applications have already been blended into people daily life. Traditionally, video streaming research has focused on performance improvement, namely throughput increase and response time reduction. However, most mobile devices are battery-powered, a technology that grows at a much slower pace than either multimedia or hardware developments. Since battery developments cannot satisfy expanding power demand of mobile devices, research interests on video applications technology has attracted more attention to achieve energy-efficient designs. How to efficiently use the limited battery energy budget becomes a major research challenge. In addition, next generation video standards impel to diversification and personalization. Therefore, it is desirable to have mechanisms to implement energy optimizations with greater flexibility and scalability. In this context, the main goal of this dissertation is to find an energy management and optimization mechanism to reduce the energy consumption of video decoders based on the idea of functional-oriented reconfiguration. System battery life is prolonged as the result of a trade-off between energy consumption and video quality. Functional-oriented reconfiguration takes advantage of the similarities among standards to build video decoders reconnecting existing functional units. If a feedback channel from the decoder to the encoder is available, the former can signal the latter changes in either the encoding parameters or the encoding algorithms for energy-saving adaption. The proposed energy optimization and management mechanism is carried out at the decoder end. This mechanism consists of an energy-aware manager, implemented as an additional block of the reconfiguration engine, an energy estimator, integrated into the decoder, and, if available, a feedback channel connected to the encoder end. The energy-aware manager checks the battery level, selects the new decoder description and signals to build a new decoder to the reconfiguration engine. It is worth noting that the analysis of the energy consumption is fundamental for the success of the energy management and optimization mechanism. In this thesis, an energy estimation method driven by platform event monitoring is proposed. In addition, an event filter is suggested to automate the selection of the most appropriate events that affect the energy consumption. At last, a detailed study on the influence of the training data on the model accuracy is presented. The modeling methodology of the energy estimator has been evaluated on different underlying platforms, single-core and multi-core, with different characteristics of workload. All the results show a good accuracy and low on-line computation overhead. The required modifications on the reconfiguration engine to implement the energy-aware manager have been assessed under different scenarios. The results indicate a possibility to lengthen the battery lifetime of the system in two different use-cases.
Resumo:
En esta tesis se va a describir y aplicar de forma novedosa la técnica del alisado exponencial multivariante a la predicción a corto plazo, a un día vista, de los precios horarios de la electricidad, un problema que se está estudiando intensivamente en la literatura estadística y económica reciente. Se van a demostrar ciertas propiedades interesantes del alisado exponencial multivariante que permiten reducir el número de parámetros para caracterizar la serie temporal y que al mismo tiempo permiten realizar un análisis dinámico factorial de la serie de precios horarios de la electricidad. En particular, este proceso multivariante de elevada dimensión se estimará descomponiéndolo en un número reducido de procesos univariantes independientes de alisado exponencial caracterizado cada uno por un solo parámetro de suavizado que variará entre cero (proceso de ruido blanco) y uno (paseo aleatorio). Para ello, se utilizará la formulación en el espacio de los estados para la estimación del modelo, ya que ello permite conectar esa secuencia de modelos univariantes más eficientes con el modelo multivariante. De manera novedosa, las relaciones entre los dos modelos se obtienen a partir de un simple tratamiento algebraico sin requerir la aplicación del filtro de Kalman. De este modo, se podrán analizar y poner al descubierto las razones últimas de la dinámica de precios de la electricidad. Por otra parte, la vertiente práctica de esta metodología se pondrá de manifiesto con su aplicación práctica a ciertos mercados eléctricos spot, tales como Omel, Powernext y Nord Pool. En los citados mercados se caracterizará la evolución de los precios horarios y se establecerán sus predicciones comparándolas con las de otras técnicas de predicción. ABSTRACT This thesis describes and applies the multivariate exponential smoothing technique to the day-ahead forecast of the hourly prices of electricity in a whole new way. This problem is being studied intensively in recent statistics and economics literature. It will start by demonstrating some interesting properties of the multivariate exponential smoothing that reduce drastically the number of parameters to characterize the time series and that at the same time allow a dynamic factor analysis of the hourly prices of electricity series. In particular this very complex multivariate process of dimension 24 will be estimated by decomposing a very reduced number of univariate independent of exponentially smoothing processes each characterized by a single smoothing parameter that varies between zero (white noise process) and one (random walk). To this end, the formulation is used in the state space model for the estimation, since this connects the sequence of efficient univariate models to the multivariate model. Through a novel way, relations between the two models are obtained from a simple algebraic treatment without applying the Kalman filter. Thus, we will analyze and expose the ultimate reasons for the dynamics of the electricity price. Moreover, the practical aspect of this methodology will be shown by applying this new technique to certain electricity spot markets such as Omel, Powernext and Nord Pool. In those markets the behavior of prices will be characterized, their predictions will be formulated and the results will be compared with those of other forecasting techniques.
Resumo:
Comúnmente la Arquitectura se manifiesta en los edificios como un hecho de la realidad que tiene siempre carácter contemporáneo y ése debe ser el valor supremo de un arte que no distingue entre antiguo y moderno, por afectar al presente y ser contemporáneo como experiencia. Los objetos se insertan irremediablemente en su medio e incluso llegan a definirlo en ocasiones: así, arquitectura y paisaje, aparecerán a veces confundidos con diferencias difíciles de determinar. El término “paisaje” es relativamente moderno y se deriva de ciertas representaciones gráficas o pictóricas producidas en Occidente en época algo posterior al Renacimiento. No obstante, el hecho de que una palabra se pueda escribir o se cite no quiere decir que la realidad a la que responde no pueda existir, pues lo escrito es solamente un medio de expresión, y es obvio que existen otros quizá más antiguos y de idéntica importancia, pues la propia escritura no es más que el reflejo de un fenómeno que ya se ha producido con anterioridad. Parece así que el testimonio de la realidad viene dado por distintos contextos en lo que suele llamarse “cultura” de modo que las culturas pueden tener aspectos de gran interés mediante diferentes sistemas de expresión variados sin que eso tenga que pasar forzosamente por el filtro de un alfabeto y una escritura. A tenor de los primeros descubrimientos, parece que la cuestión de escribir tuvo originalmente un carácter de constatación de apunte contable y tampoco se puede establecer con certeza si algunos utilizaron la escritura como el so-porte adecuado para referir mitos o historias, pues la Arqueología no ha proporcionado sino testimonios fragmentarios; de lo que si está repleta sin duda la historia es de apuntes contables. Otra cuestión que suscita dudas es la propia definición de escritura, pues parece que los más antiguos modos de expresión escrita se reducen a pictogramas que resultan aún indescifrables. Lenguas y toponimia son también herramientas muy útiles para bucear en el pasado, pero aún así persisten dudas en las escrituras que pro-vienen de las representaciones primordiales: la propia escritura en sus orígenes parece alimentarse de las propias intuiciones inmediatas de la representación, algo que evolucionaría representando esa realidad urgente e inmediata del control o el abastecimiento que luego se convertirían en los fragmentos de texto que han podido conservarse. Es notorio, sin embargo, que ese conjunto enorme de convenios gráficos estaba sujeto a la palabra y la desaparición de las culturas determinó también la desaparición consecuente de sus lenguas, y esos signos - fueran o no escritura - han pasado definitivamente a las zonas oscuras del conocimiento. Escribir supone también disponer de capacidad de abstracción gráfica que diferencie la palabra y la cosa, y es posible que la razón que llevara a ese descubrimiento fuera simplemente el de una economía de signos, pues escritura y lenguaje son limitados por definición, mientras que las cosas del mundo son innumerables: ningún idioma contiene todas las palabras para describir todo lo que puede aparecer. Aparentemente, ese el motivo por el cual existe un localismo – un término específico que refiere algo que existe en un lugar y no en otros - en lo que se refiere a dar el nombre a la cosa y también fuente de paradigma entre los pueblos que se consideran primitivos y los que se consideran civilizados. Debe tenerse en cuenta también que esa transposición se da en ambos sentidos, de modo que las culturas más aisladas también incorporan conceptos que carecen de una explicación racional consistente. Las mitologías son así eternas, pues sirven para explicar realidades que carecen de un entendimiento alcanzable y está también bastante claro que los lenguajes resultan ser un enigma, como realidad autónoma que queda en-cerrada y se explica en sí misma. Parece también que los primeros en escribir las consonantes aisladas fueron los pueblos semíticos occidentales de las orillas del Mediterráneo, pueblos que crearon un alfabeto silábico que llegó a ser utilizado incluso por los tartesios en el sur de la península ibérica como el primer alfabeto de toda Europa occidental. Resulta patente que el término “paisaje” se ha nutrido siempre de representaciones, bien escritas o artísticas, pero queda también claro que esas representaciones se suponen derivadas de la creencia en una idea de paisaje como algo que se ve representado en sí mismo, es decir, como la imagen de una realidad externa situada fuera del individuo. Eso es un hecho trascendente, pues el paisaje requiere lejanía de la cosa, de modo que el actor – aún sabiéndose inserto en su paisaje – es incapaz de percibirlo desde dentro. En el paisaje ocurre igual que en un teatro o en una representación: los actores son conscientes de su papel y su posible cometido, pero no son los que realmente pueden disfrutar de la eficacia o de la propia presencia de la obra, pues forman parte de ella. La idea de paisaje proviene de una lectura externa a la de los propios protagonistas del drama, de modo que si quieren ser un crítico del paisaje se debe abandonar la representación para mirar el espectáculo desde una distancia adecuada, al fin y a cabo externa. De ese modo, aparece la primera constatación del hecho del paisaje como una realidad construida por objetos y personajes, pero, sobre todo, es una realidad construida por miradas. Llama también la atención otorgada en las lecturas de los especialistas hacia esa referencia externa - artística si se quiere - sobre el término “paisaje”, de modo que la bibliografía no especializada sobre el particular siempre acaba en tratados de pintura o poesía. Parece sin embargo que el hombre y sus paisajes son realidades indisolubles desde la propia aparición de la especie, de modo que llevar la cuestión hacia términos exclusivamente esteticistas parece una posición parcial. Hombre y medio han formado siempre una sola unidad, aunque esa unidad se haya convertido en determinados casos en sinónimo de depredación y destrozo. Sin embargo, esa destrucción crea igualmente un paisaje como desolación que es resultado del propio quehacer del hombre: elementos que también poseen un contenido sustancial de memoria en los paisajes industriales como un momento de la Historia previo a la automatización y a la globalización de la vida actuales. Quizá el concepto más interesante desde el punto de vista teórico sea precisamente el de esa cualidad del paisaje como mirada, algo externo producido por el contemplador en un momento ajeno a la pertenencia, una mirada que no es tan sólo estética sino comprensiva, gozosa, activa o analítica - pues existen tantas maneras de mirar como sujetos - sin que pueda definirse con precisión esa contemplación más que en términos que alcanzan la propia individualidad. En términos poéticos, también podría establecerse como ese conjunto de miradas individuales crean también una estructura que hace que ese paisaje se valore y se comprenda, de modo que desde ese punto de vista ese paisaje supone una creación colectiva. Con respeto o como depredador, el hombre se ha instalado en su medio, y al hacerlo, ha dejado huellas dentro del propio paisaje que hacen que tome una determinada significación. Naturalmente, existe una teoría que distingue entre “país” y “paisaje”, asumiendo para el primero la noción exclusiva de territorio en la cual el hombre no tiene papel estético alguno. He intentado muchas veces comprender esa posición, sin acabar de entender el planteamiento que la sustenta: parece que la visión de la cosa estará siempre humanizada, aún en las zonas “vírgenes” o intactas, pues la propia visión hace que el objeto se modifique en su propia unidad perceptiva, creando una curiosa indeterminación que lleva a los conocidos equívocos entre imagen real y representación. Efectivamente, la visión de la cosa requiere de una cultura y unos medios que la informan, de modo que un texto, una pintura, una descripción o una fotografía quedarán ya humanizadas por el propio hecho de ser informadas, pues ello otorga una forma a priori. De ese modo, el paisaje figura inscrito en una función que establece tanto aspectos de un paisaje posible como aspectos del paisaje descrito y solamente podrá hablarse sobre la potencialidad del estado final de ese paisaje y nada del propio paisaje en sí, mientras ese paisaje no quede humanizado por el propio observador. Esta cuestión obliga a elegir una definición de paisaje alejada de presupuestos esteticistas para acercarla a los puramente culturales, de modo que no existe otra vía para la investigación que contemplar esa realidad física en función de las coordenadas del hombre que la habita, dotada del contenido correspondiente a esa revelación. Lejos de las posiciones de la geomorfología, el término “paisaje” implicará así unas condiciones determinadas de contemplación por parte de un sujeto por el cual el espectáculo queda humanizado en dicho acto.Cabe pensar también si no es cierto que todos los paisajes requieren de esa condición humanizada, pues aunque no estén habitados están siempre ocupados por esa mirada que los habita, al igual que un escenario sin público que carece de vigencia. A partir de ahí se sitúan las coordenadas en donde este trabajo configura la presencia de la arquitectura en la definición del paisaje, una premisa que parece ya venir otorgada desde el principio, pues esa misma mirada del espectador ya está dotando de un sentido de orden y jerarquía a la contemplación, unas cualidades que están en la base de toda actividad arquitectónica, De hecho la propia definición de “monumento natural” - en si misma una contradicción – expresa ese conflicto, dotado de un fenómeno de admiración y solape entre cultura y naturaleza, como conceptos enfrentados desde su origen. La conclusión sobre el dilema propuesta en la tesis no ha sido otra que suponer que esas dos realidades que son la cultura y el paisaje se han solapado desde el principio de los tiempos del hombre formando un binomio indeslindable. Se ha dicho antes que el proceso de invasión del territorio por el hombre es significativo, y esa significación es la que origina una creación autónoma que se aísla como un concepto abstracto de los entes naturales, tomándolos como material de trabajo, y estableciendo una oposición conceptual en la realidad perforada e interpretada por el hombre que viene a oponerse a lo que supone la caja cerrada e ignota del enigma del mundo. La cuestión de la significación del hombre sobre el territorio se subsume en la creación de unos productos que permanecen y que son testimonio de la propia cultura, de forma que la cantidad de rastro que el hombre deja sobre el territorio contribuye en mayor medida a la cualificación del paisaje como concepto. Eso lleva a establecer que cualquier paisaje - por el mero hecho de serlo y ser definido así – es ya cultural, puesto que está configurado por los productos de la cultura. Las palabras que puedan quedar encerradas en las piedras de los monumentos o de las ciudades son las de los hombres que trabajaron allí, y también las de los que las habitaron: más aún, el propio sentido del paisaje y su conservación vienen determinados por la presencia del hombre como único interprete de conceptos como ecología o conservación, algo que se pone de manifiesto también en la espantosa devastación que producen los fenómenos propios de la naturaleza. La historia natural, al igual que la vida, están conformadas por éxito y devastación, sin que uno y otra tengan especial preferencia, pues la preferencia se alimenta de otra clase de conceptos. La cuestión de atribuir valores morales al mundo natural es algo muy antiguo, y quizá sea la fuente o el manantial de las primeras religiones, una cuestión que se une a la indefectible noción de mortalidad que define la existencia del hombre frente a la inmanencia de la naturaleza. Esa propia naturaleza está dotada intuitivamente de un carácter “inocente” suponiendo que la inocencia es lo opuesto a la sabiduría. La cuestión es bien otra, ya que la naturaleza no posee ni siquiera algo que pueda definirse como “carácter”, en el sentido personal del término. La cuestión no cae, evidentemente, del lado de las definiciones o de las cualidades, sino del propio análisis de la realidad que el hombre va construyendo, destruyendo, embelleciendo o perjudicando para definir el territorio que habita, interponiendo a su manera recursos, instalaciones y en definitiva todos los testimonios posibles como principal manifestación de su esencia. Entre los artefactos que el hombre produce, uno de los más persistentes y más conspicuamente descritos es el de la arquitectura - entendida aquí en un sentido amplio - es decir, como el conjunto de modificaciones del espacio y del territorio. El espacio se puede modificar de muchos modos, pero en cualquiera de los casos constituye una de las huellas más características que el hombre establece como manifestación física de su propio ser discursivo. También la arquitectura ha demostrado ser una de los fenómenos más persistentes, incluso más que la propia lengua que la origina en su discurso primero antes que pueda ac-cederse a una idea sobre la conformación del material. Es paradigmático que el episodio descrito sobre la Torre de Babel en la Biblia la cuestión de la ambición de los hombres frente a Dios, representada precisamente en una arquitectura, se asimile a la discusión sobre el lenguaje primordial. La cuestión no es baladí, pues el fenómeno de la creación es algo que se concede exclusivamente a los dioses, que por esa razón habitan los territorios a los que los hombres no pueden llegar; territorios de albergue en los que las mitologías sitúan a dioses y demonios, con amplios espacios intermedios donde situar a las divinidades menores, héroes o seres híbridos en los que la coyunda de los dioses con los humanos produce sujetos que alivian el sentido de la mortalidad. El comentario del Génesis también concede un valor a la técnica, al mito de Prometeo y al fuego como creador de excelencia. Frente al progreso prometeico, se postula el valor divino, y la única forma posible de paliar ese progreso es la confusión del lenguaje, pues eso será lo que produzca la dispersión y la falta de acuerdo. La cuestión también puede explicar esa afición tan común por lo canónico en arquitectura que se mantiene a lo largo de grandes períodos, al igual que una gran máquina de inercia. Parece que los conceptos primordiales de la arquitectura basados en elementos simples como el hito, el dintel, lo recto y lo curvo, la rampa o la escalera, y el uso distinto o cualificado que se otorga a la piedra, el ladrillo, la madera o el metal como componentes primordiales del material arquitectónico se haya mantenido a lo largo de muchos milenios sin apenas cambios, al igual que ocurre con las costumbres alimenticias que siguen una progresión ascendente a través de lo crudo, lo asado y lo cocido, hasta obtener distintos grados de refina-miento, pero que siempre se sustentan en la sensación primigenia. El descubrimiento de la arquitectura proviene de un cierto manejo de las dimensiones, y consiguientemente de la geometría. Pero la geometría es cosa abstracta al igual que el lenguaje, de modo que para poder realizar arquitectura se hace necesaria esa capacidad de abstracción primera que luego permite la realización de un dispositivo. La realidad y su número exhiben un divorcio, al igual que las cosas y sus nombres exhiben el suyo, y el análisis numérico es solamente una forma de ver la realidad, una forma rigurosa y exacta – aunque parcial - que solamente representa el modelo ideal al cual la realidad se aproxima en mayor o menor medida: esa aproximación matemática hace que el universo pueda condensarse parcialmente en números, al igual que la realidad puede condensarse en nombres, pero ni el nombre ni el número reflejarán el mundo en toda su complejidad. El número es quizá solamente un medio de describir las cosas, como lo serían las formas puras que responden a una configuración matemática que pueda producirse en teoría en cualquier parte del Universo. Sin embargo, para el ejercicio de la arquitectura es preciso acudir a esa simplificación que exige la visión abstracta del plano como una sección cierta realidad como un corte abstracto del elemento considerado. Con su traza o sin ella, con la propia expresión matemática que lo describa o sin precisarla, esa intuición del plano como elemento generador del espacio es anterior a aquella expresión, al igual que el habla fue anterior a la escritura, pues solamente se produjo a través de ella y como refuerzo y sustituto de la memoria. Existen así abstracciones de la memoria que aparecen derivadas de los signos de la naturaleza aparecidos solamente de forma eventual y fragmentaría: así ocurre con la línea, el cuadrado y el círculo, formas iniciales y abstractas sonsacadas en cierta medida de la observación que dan origen a los primeros signos de la arquitectura primordial, de modo que cuadrados y círculos, elevados a prismas y superficies esféricas o esferoides aparecen en tumbas y edificios elementales de los primeros tiempos mediante una geometría primordial que se superpone al paisaje en el que se inserta. Es cierto también que esas formas se encuentran ya aproximadas en objetos que se encuentran en el medio físico, líneas en extremidades, ramas y miembros; ángulos rectos en algunos cristales que se observan mediante corte o formas circulares en astros y cráteres, pero esa realidad solamente presenta su forma aproximada y no su abstracción pura, de igual modo que el jeroglífico propondrá al ave rapaz para representar la idea de vigilancia y la buena vista, o incluso que la imagen del propio ojo sustituya la idea del Dios que todo lo ve en las culturas anti-guas. La elección fue resuelta, después de muchos intentos y aproximaciones, con la adopción del ángulo recto como un artificio fácil para el replanteo a través del triángulo sagrado 3:4:5 que ya se utilizó para construir las pirámides de Egipto, y que dio origen también a la mayor parte del urbanismo antiguo, coexistiendo con la forma circular primordial en el tipo denominado “tholo”. Aquella trama cuadrangular era uno de los patrones de relleno del espacio más comunes y compactos, y esa fue probablemente la razón por la que en tiempos muy posteriores fuera adoptada como una forma eficaz permanente de organización frente al desorden topológico que procura el conjunto de asociación de plantas circulares. Otra cuestión paradigmática es que esos conceptos primordiales e ignotos - que convergen en el mismo origen de las civilizaciones - se conviertan luego en algo canónico, a través del uso. El canon en sí mismo es algo ideal, como una norma aplicable a objetos de una realidad que ha sido creada solamente como indicio del ca-non, algo abstracto que tiene proporciones estrictas que son siempre las mismas y no obedece a criterios racionales: será absurdo sin embargo buscar el canon griego entre los templos de época como algunos lo hicieron, pues los edificios solamente se aproximan a los ejemplos canónicos y por esa razón se habla del “dórico del Partenón” que es diferente del de Egina o del de Paestum, siendo todos ellos evidentemente dóricos. Sin embargo, esa idea resulta útil al tratadista, al teórico de la arquitectura y al historiador, aun-que solamente refleje una vaga idea de lo que sucede más allá del tratado. Otra cuestión es la sutileza de los ejemplos de arquitectura, y del mismo modo que los cuerpos de los seres vivos jamás son simétricos, aunque respondan a un diseño simétrico general derivado de las condiciones de la división celular, los edificios supuestamente canónicos en los que los especialistas se inspiraron para definir los órdenes clásicos no disponen de esa simetría modular exacta, sino que adaptan un modelo general al lugar siempre cambiante del emplazamiento, es decir, se adaptan con habilidad a la vez que configuran el paisaje en el que se insertan. La luz de los distintos intercolumnios del Partenón es ligeramente distinta, aunque guarde un evidente sentido de simetría axial, de manera que aquellos “órdenes” que formaron la Teoría de la Arquitectura no son más que una bella interpretación sectorial de la arquitectura antigua elaborada por los tratadistas del Renacimiento y, posteriormente, por los neoclásicos. Parece, sin embargo, que ese ansia por el canon como claridad de lenguaje es algo consustancial al desarrollo de la arquitectura, una lingua franca que tiende a evitar la dispersión producida entre los mortales por los dioses antiguos, de modo que si no era posible llegar al cielo de los dioses se procuró que el lenguaje de la Tierra fuera al menos inteligible para poder entenderse entre los hombres. Parece que la estructura del poder siempre requirió de un determinado nivel de organización, y también que las instrucciones se entendieran con claridad: parece que en nuestros tiempos esos antiguos cánones se han sustituido por la obediencia a normas abstractas, dictadas por instituciones también algo abstractas y que tienen nombres divertidos compuestos por siglas, aunque no se conozca bien su virtud. El canon actual está constituido por “normas” que dejan tranquilos a algunos, aunque parece quizá que todo ese entramado formal que sirve como anestesia para el cuerpo social procura también la destrucción de los bosques en formas de montañas ingentes de papel burocrático. Durante muchos siglos las normas fueron otras, en la forma de un canon del cual nadie podía escapar: aún así, mediante la utilización de cánones o sin ellos, la arquitectura prosperó en la civilización desde los primeros refugios cavernarios o los abrigos primigenios y de ese modo fue configurando la realidad, es decir, el paisaje. Como antes se dijo, ese es un viaje de ida y vuelta en el cual ambos se confundían y subsumían: el manejo de las formas y lenguajes de la arquitectura posibilitaría con el tiempo la distinción entre el campo en donde reina el caos y la ciudad, en donde reina teóricamente el orden, creando un divorcio que duraría milenios y que aún persiste. Esa oposición generaría también una forma de paisaje y una serie de usos simbólicos y sagrados de los elementos de la arquitectura - como son puertas y murallas - que se han mantenido conceptualmente aunque hoy las ciudades ya no posean murallas físicas, ni puertas que se cierran con la llegada de la noche. En ese sentido, la arquitectura ha podido definir el paisaje, entendiendo la arquitectura no solamente como los edificios en sí, sino como el hecho de la manifestación del hombre sobre el territorio, de modo que no podrá hablarse de paisaje sin su arquitectura, del mismo modo que no puede hablarse de paisaje sin hombres. Por esta razón, la Tesis habla sobre Arquitectura y Paisaje, pero más particularmente sobre el hecho de la arquitectura en la definición del paisaje, es decir, de como los hechos arquitectónicos van a determinar o no la cualidad y la calificación de un paisaje. Deberá partirse en primer lugar de una definición de lo que se entiende y se ha entendido comúnmente por paisaje: igualmente, y habida cuenta del contexto en el que sitúa el propio trabajo de tesis, la cuestión solamente se circunscribirá a lo que se entiende como cultura occidental, pues el desarrollo de la civilización presenta siempre un color local que hace que el análisis de un fenómeno de esta envergadura tenga distintas connotaciones en las distintas áreas de civilización. De igual modo, y habida cuenta también que el paisaje se construye a través de todas las manifestaciones culturales, se hará a veces necesario indagar en otras disciplinas no arquitectónicas para comprender el alcance de algunos casos en los cuales los restos arquitectónicos han desaparecido, o en los que subsisten escasas trazas. Una definición tan amplia de la Arquitectura llevaría a escribir un relato sobre toda la cultura occidental y por ese motivo solamente se han esbozado ideas sobre la aparición de esos signos sobre el paisaje basados en elementos antiguos y primigenios que se repiten con insistencia y van dando lugar al variado repertorio de la arquitectura occidental cómo conformación de ideas sobre el me-dio y sobre el mundo que se percibe y se habita. ABSTRACT About Architecture in defining Landscape. Abstract Architecture is commonly manifested in buildings as a fact of reality that has always a contemporary character and that should be the highest value of an art that does not distinguish between ancient and modern, to affect the present and be contemporary as experience. Objects are inserted irremediably in their midst and even sometimes come to define it: thus, architecture and landscape, appear sometimes confused with differences difficult to determine. However, the term "landscape" is relatively modern and is derived from certain graphical or pictorial representations produced in the West in some subsequent period to the Renaissance. The fact that a word can be written or quoting does not mean that the reality that can not be answered, because the writing is only a mean of expression, and it is obvious that there are other and perhaps older equally important, because the writing itself is nothing more than the reflection of a phenomenon that has occurred before. It thus appears that the testimony of reality is given by different contexts in what is called "culture", so that cultures can have aspects of great interest by many different expression systems without this necessarily have to pass through the filter of alphabet and writing. Under the initial findings, it appears that the question of writing originally had a character and finding accounting entries, and it can not be established with certainty whether some used writing as the support appropriate to refer myths or stories, because archaeology has provided only fragmentary evidence. Another issue that raises questions is what can properly be defined as writing, it seems that the oldest modes are reduced to writing pictograms are still indecipherable. Languages and place names are also very useful tools for diving in the past, but still questions remain in the scriptures that come from the primordial representations: either it is very well defined what the own writing in its origins: the beginnings seem to feed on immediate intuitions of representation, which would evolve representing reality that urgent and immediate control or supply which is then inherited into fragments. It is noteworthy, however, that this huge set of graphics agreements was subject to the word and the disappearance of cultures determined also the consequent disappearance of their languages, and those signs - whether or not they write - have passed definitively to dark areas of knowledge. Writings supposed also the capacity of abstraction graph differentiates the word and the thing, and it is possible that the reason to carry this discovery was simply that of an economy of signs, for writing and language are limited by definition, while the things of the world are innumerable: no language contains all words to describe all that may appear. Apparently, that's why there is a localism - a specific term that refers to something that exists in one place and not in others - in regards to name the thing and also the source of paradigm among peoples are considered primitive and civilized. It should be noted also that transposition occurs in both directions, so that the most isolated cultures also incorporate concepts that lack a consistent rational explanation. Mythologies are eternal and therefore serve to explain realities that lack an understanding achievable and also pretty clear that languages happen to be an enigma, as an autonomous reality that is enclosed and explains itself. It also seems that the first to write consonants were isolated western Semitic peoples from the shores of the Mediterranean, peoples who created a syllabic alphabet came to be used even by tartesios in southern Iberia as the first alphabet in Western Europe. It is clear that the term "landscape" has always nurtured representations, either written or artis-tic, but it is also clear that these representations are assumed arising from belief in an idea of landscape as something that is represented in itself, as the image of a reality external located outside the individual. That is an important fact because the landscape requires remoteness of the thing, so that the actor - even knowing insert in landscape - is unable to perceive from within. The landscape is just as in a theatre or a performance: the actors are aware of their role and their possible role, but they are not the ones who can really enjoy the efficiency or the presence of the work itself, as part of it. The idea comes from an external landscape reading the principles of players in the drama, so if you want to be a critic of the landscape should leave the actual representation to watch the spectacle from a safe distance, finally external. Thus, the first finding of fact of the landscape appears as a reality constructed by objects and characters, but above all, a reality constructed by looks. Also noteworthy given the readings of specialists to the external reference - art if it could be - on the term "landscape", so no specialized literature on the subject always ends in treatises on painting or poetry. It seems however that the man and his landscapes are inseparable realities from the very onset of the species, so bring the issue into terms exclusively aesthetics seems a partial position. Man and environment have always been a single unit, but that unit has become synonymous with certain cases predation and destruction. Nevertheless, this destruction also creates a landscape as desolation that results from proper task of man elements that also have substantial contents of memory in industrial landscapes as a time of pre-automation history and globalization of current life. Perhaps the most interesting from a theoretical point of view is precisely that quality of landscape as something external produced by the viewer in a strange time of membership, a look that is not only aesthetic but sympathetic, joyful, active concept or analytical - because there are so many ways to look as subjects - it may not be precisely defined that contemplation rather than in terms that reach one's individuality. In poetic terms, it could also be set as the set of individual gazes also create a structure that makes this landscape is valued and understood, so from that point of view that landscape is a collective creation. With respect or as a predator, man has settled in his environment and in doing so has left traces in the landscape itself that make take a certain significance. Naturally, there is a theory that distinguishes what is "home" and what is "nature" providing for the first notion of the exclusive territory in which man has no aesthetic role. I tried many times to understand this position, without understanding the approach that supports: it seems that the vision of the thing is always humane, even in the "virgin" or untouched areas, as the vision itself makes the object modified in its own perceptual unit, creating a curious indeterminacy leading to the known misunderstandings between real image and representation. Indeed, the vision of the thing requires a culture and means that the report, so that a text, a picture, a description or photograph will be humanized by the very fact of being informed, as this provides a way a priori. Thus, the landscape provides a function that sets both aspects of a potential landscape as described aspects of the landscape and can only talk about the potential of the final state of the landscape, while the landscape remains humanized by the observer himself. This question forces to choose a definition of remote landscape budgets purely cultural, so there is another way for research to contemplate that physical reality in terms of the coordinates of the man who inhabits gifted content corresponding to that revelation. Far from the positions of the geomorphology, the term "landscape" and involve a certain condition by contemplation of a subject for which the show is humanized in the act. It should also consider, in the light of the above, if it is not true that all landscapes require that humanized condition, because although they are not inhabited they are always occupied by the look that dwells, like a stage without audience produces no consistent effect. From there the coordinates where this work sets the presence of architecture in defining landscape, a premise which seems to come from the beginning given lie, because that same look is already giving the viewer a sense of order and hierarchy to contemplation, qualities that are at the basis of all architectural activity, in fact the very definition of "natural monument" - in itself a contradiction - expresses this conflict, which has a phenomenon of admiration and overlap between culture and nature as concepts faced since its inception. The conclusion on the dilemma proposed in the thesis has not been another to assume that these two realities are the culture and landscape have overlapped since the beginning of man time forming a pair. It has been said before that the process of invasion of the territory by man is significant, and that meaning is the originating autonomous creation that is isolated as an abstract concept of nature, taking them as working material, and establishing a conceptual opposition in reality and punched by the man who comes to oppose representing the closed and unknown to the enigma of the world interpreted. The question of the significance of the man on the land is subsumed in the creation of products that remain and are testimony of their own culture, so that the trace amount that the man leaves the territory contributes most to the qualification landscape as a concept. That brought into any landscape - by the mere fact of being and being well defined - is already cultural, as it is configured by culture products. The words that can be locked in the stones of the monuments or cities are those of the men who worked there, and also of those who inhabited: even more, the sense of the landscape itself and its conservation are determined by the presence of man as the sole interpreter of concepts such as ecology or conservation, something which becomes manifest also in the awful devastation that produce the phenomena of nature. The natural history, like life, are shaped by success and devastation without special preference, the preference is used for feeding on other kinds of concepts. The question of moral values attributed to the natural world is very ancient, and may be the source or the source of the first religions, an issue that joins the unfailing notion of mortality that defines the existence of man against immanence of nature. That nature is endowed intuitively an "innocent" character assuming that innocence is the opposite of wisdom. The other issue is well, since nature does not even have what is defined as "character" because that is something that serves to qualify beings, but not objects. The question does not fall clearly on the side of the definitions or qualities, but from the analysis of the reality that man is building, destroying or damaging to define the territory, interposing his way resources facilities and possible witness as the main manifestation of its essence. Among the artifacts that man produces one of the most persistent and most conspicuously disclosed is architecture as a way of modification of space and territory. The space can be modified in many ways, but in either case is one of the most characteristic traces that man establishes as a physical manifestation of his own discourse being. Architecture has also proven to be one of the most persistent phenomena, even more than their own language that originates in his speech first. The paradigm wrote in the episode described on the Tower of Babel in the Bible shows the question of ambition of men before God - represented precisely in architecture - is assimilated to the discussion about the primary language. The issue is not trivial, since the phenomenon of creation is something that is granted exclusively to the gods, for that reason inhabit the territories to which men can not reach; territories where the hostel located mythologies gods and demons, with large gaps where to place the minor deities, heroes or hybrid beings where the yoke of the gods with human subjects produces relieving sense of mortality. The commentary on Genesis also gives a value to the art, the myth of Prometheus and fire as creator of excellence. In front of promethean progress, divine value is postulated, and the only possible way to alleviate this progress is the confusion of language, because that is what will produce the dispersion and lack of agreement. The issue may also explain such a common passion for the canonical architecture maintained throughout long periods, like a great machine inertia. It seems that the main concepts of architecture based on simple elements like milestone, lintels, straight and curved stairs or ramps, or other qualified and used are granted to the stone, brick, wood or metal as the primary components of the architectural material maintained throughout many millennia are almost unchanged, as is the case with the eating habits that follow a progression through the raw, the cooked and roasted or fried until obtain different degrees of refinement, but always are based on the primal feeling. The discovery of the architecture comes from a management dimensions, and consequently the geometry. But the geometry is abstract thing like the language so that to make architecture that first absorption capacity which then allows the realization of a device is necessary. Reality and its number exhibit a divorce, like things and their names displayed his; numerical analysis is just one way of seeing reality, rigorous and accurate - though partial - only represents the ideal model to which reality is coming to a greater or lesser extent: the mathematical approach makes the universe can condense on numbers, like reality may condense on names, but neither the name nor the number will reflect in all its complexity. The number is only a means of describing things, such as the pure forms that match setup a mathematical theory that occurs anywhere in the universe. However, for the practice of architecture is necessary to go to the simplification that requires abstract view of a section plane of reality, as an abstract element considered cutting. With its trace or not, with the mathematical expression that describes what or without clarify, this intuition of the plane as a generator of space predates his own expression, like speech preceded the writing, which only occurred through it and as reinforcement and replacement of memory. There are abstractions of memory displayed on the signs of nature only on casual and fragmentary, such as line, square and circle: those initials and abstract forms located in abstraction give rise to the first signs of primordial architecture, so that squares and circles, lifting two prisms and spheroids or spherical surfaces appear in tombs and elementary buildings the first few times, and that primordial geometry overlaps the landscape in which it is inserted. It is also true that these forms are approximate objects found in the physical environment, limb lines, branches and limbs; straight in some crystals angles observed by cutting or circular in stars and craters forms, but only the approximate shape and not its abstraction, just as the hieroglyphic of a falcon to represent the idea of surveillance presents the good view, or even the image of the eye itself replace the idea of the all-seeing God. The election was resolved, after many attempts and approaches, with the adoption of the right angle as an easy trick for stake through the sacred triangle 3:4:5 already used to build the pyramids of Egypt, and also gave rise to most of the old urbanism tend coexist with the primary circular form type called "Tholo". That frame homer was one of the fill patterns of common and compact space, and that was probably the reason why in much later times was adopted as a permanent effective form of organization against the topological disorder that seeks the set of association circular plants. Another issue is that these paradigmatic and unknown primary concepts - that converge at the origin of civilizations - then become something canon, through use. The canon itself is something ideal, as a rule for objects of a reality that has been created only as an indication of the ca-non, something abstract that has strict proportions are always the same and not due to rational criteria: be absurd however seek the Greek canon among the temples of time as some did, because the buildings only approximate the canonical examples and for that reason we speak of "doric from Parthenon" which is different from Aegina or Paestum, being all clearly doric. However, this idea is useful to scholar, the architectural theorist and historian, although it reflects only a vague idea of what happens beyond the book. Another issue is the subtlety of the examples of architecture, just as the bodies of living beings are never symmetrical, even if they involve a general symmetrical design derived from the conditions of cell division, the supposedly canonical buildings where specialists were inspired to define the classical orders do not have that exact modular symmetry, but a general model adapted to the ever changing location of the site shaping the landscape in which they are inserted. The light of the various bays of the Parthenon is slightly different, but keep a clear sense of axial symmetry, so that those "orders" that formed the theory of architecture are just a beautiful sectoral interpretation of ancient architecture developed by writers of the Renaissance and later by neoclassical. It seems, however, that craving for clarity of language canon as is inherent to the development of architecture, a lingua franca that tends to avoid scattering among mortals by the ancient gods, so if it was not possible the heaven of the gods sought the language of the Earth was at least intelligible to be understood. Power structure has always required a certain level of organization, and the instructions are clearly understood: it seems that in our times these ancient canons were replaced by obedience to abstract rules, issued by institutions also somewhat abstract and have funny names made up acronym, although not well known virtue. The current canon consists of "rules" that leave some quiet, although it seems that maybe all that interweaves-do formally serving as anaesthesia for the social body also seeks the destruction of forests in forms of huge mountains of bureaucratic paper. For many centuries were other rules, in the form of a canon which no one could escape: still using royalties or without them, civilization flourished in architecture from the earliest cave shelters or shelters and the primordial reality was setting mode in landscape. As noted above, this is a return trip in which both confused and subsumed: the management of forms and languages of architecture over time would allow the distinction between the field where chaos reigns and city, where order reigns theoretically creating a divorce that lasted millennia and still persists. This opposition also generate a form of landscape and a series of symbolic and sacred uses of architectural elements - such as doors and walls - which have remained conceptually although today the cities no longer having physical walls or doors close during the night. In this sense, the architecture could define the landscape, architecture is not only understood as the buildings themselves, but the fact of the manifestation of the man on the premises, so you can not speak without his landscape architecture, the same so we can not speak of landscape without men. For this reason, the thesis discusses architecture and landscape, but more particularly to the fact of architecture in defining landscape, as the facts of architectural or not will determine the quality and qualification of a landscape. One should begin first a definition of what is understood and has been commonly understood by landscape: equally, and given the context in which it places the own thesis work, the issue only be limited to what is understood as western culture, for the development of civilization always has a local colour that makes the analysis of a phenomenon of this magnitude have different connotations in different areas of civilization. Similarly, and given also that the landscape is constructed through all cultural manifestations, will sometimes necessary to investigate other non-architectural disciplines to understand the scope of some cases in which the architectural remains have disappeared, or the remaining few traces. Such a broad definition of architecture take to write a story about all of Western culture and for this reason only been sketched ideas about the appearance of these signs on the landscape based on ancient and primitive elements are repeated insistently and leading the varied repertoire of Western architecture shaping ideas about how the media and the world is perceived and inhabited.
Resumo:
La informática teórica es una disciplina básica ya que la mayoría de los avances en informática se sustentan en un sólido resultado de esa materia. En los últimos a~nos debido tanto al incremento de la potencia de los ordenadores, como a la cercanía del límite físico en la miniaturización de los componentes electrónicos, resurge el interés por modelos formales de computación alternativos a la arquitectura clásica de von Neumann. Muchos de estos modelos se inspiran en la forma en la que la naturaleza resuelve eficientemente problemas muy complejos. La mayoría son computacionalmente completos e intrínsecamente paralelos. Por este motivo se les está llegando a considerar como nuevos paradigmas de computación (computación natural). Se dispone, por tanto, de un abanico de arquitecturas abstractas tan potentes como los computadores convencionales y, a veces, más eficientes: alguna de ellas mejora el rendimiento, al menos temporal, de problemas NPcompletos proporcionando costes no exponenciales. La representación formal de las redes de procesadores evolutivos requiere de construcciones, tanto independientes, como dependientes del contexto, dicho de otro modo, en general una representación formal completa de un NEP implica restricciones, tanto sintácticas, como semánticas, es decir, que muchas representaciones aparentemente (sintácticamente) correctas de casos particulares de estos dispositivos no tendrían sentido porque podrían no cumplir otras restricciones semánticas. La aplicación de evolución gramatical semántica a los NEPs pasa por la elección de un subconjunto de ellos entre los que buscar los que solucionen un problema concreto. En este trabajo se ha realizado un estudio sobre un modelo inspirado en la biología celular denominado redes de procesadores evolutivos [55, 53], esto es, redes cuyos nodos son procesadores muy simples capaces de realizar únicamente un tipo de mutación puntual (inserción, borrado o sustitución de un símbolo). Estos nodos están asociados con un filtro que está definido por alguna condición de contexto aleatorio o de pertenencia. Las redes están formadas a lo sumo de seis nodos y, teniendo los filtros definidos por una pertenencia a lenguajes regulares, son capaces de generar todos los lenguajes enumerables recursivos independientemente del grafo subyacente. Este resultado no es sorprendente ya que semejantes resultados han sido documentados en la literatura. Si se consideran redes con nodos y filtros definidos por contextos aleatorios {que parecen estar más cerca a las implementaciones biológicas{ entonces se pueden generar lenguajes más complejos como los lenguajes no independientes del contexto. Sin embargo, estos mecanismos tan simples son capaces de resolver problemas complejos en tiempo polinomial. Se ha presentado una solución lineal para un problema NP-completo, el problema de los 3-colores. Como primer aporte significativo se ha propuesto una nueva dinámica de las redes de procesadores evolutivos con un comportamiento no determinista y masivamente paralelo [55], y por tanto todo el trabajo de investigación en el área de la redes de procesadores se puede trasladar a las redes masivamente paralelas. Por ejemplo, las redes masivamente paralelas se pueden modificar de acuerdo a determinadas reglas para mover los filtros hacia las conexiones. Cada conexión se ve como un canal bidireccional de manera que los filtros de entrada y salida coinciden. A pesar de esto, estas redes son computacionalmente completas. Se pueden también implementar otro tipo de reglas para extender este modelo computacional. Se reemplazan las mutaciones puntuales asociadas a cada nodo por la operación de splicing. Este nuevo tipo de procesador se denomina procesador splicing. Este modelo computacional de Red de procesadores con splicing ANSP es semejante en cierto modo a los sistemas distribuidos en tubos de ensayo basados en splicing. Además, se ha definido un nuevo modelo [56] {Redes de procesadores evolutivos con filtros en las conexiones{ , en el cual los procesadores tan solo tienen reglas y los filtros se han trasladado a las conexiones. Dicho modelo es equivalente, bajo determinadas circunstancias, a las redes de procesadores evolutivos clásicas. Sin dichas restricciones el modelo propuesto es un superconjunto de los NEPs clásicos. La principal ventaja de mover los filtros a las conexiones radica en la simplicidad de la modelización. Otras aportaciones de este trabajo ha sido el dise~no de un simulador en Java [54, 52] para las redes de procesadores evolutivos propuestas en esta Tesis. Sobre el término "procesador evolutivo" empleado en esta Tesis, el proceso computacional descrito aquí no es exactamente un proceso evolutivo en el sentido Darwiniano. Pero las operaciones de reescritura que se han considerado pueden interpretarse como mutaciones y los procesos de filtrado se podrían ver como procesos de selección. Además, este trabajo no abarca la posible implementación biológica de estas redes, a pesar de ser de gran importancia. A lo largo de esta tesis se ha tomado como definición de la medida de complejidad para los ANSP, una que denotaremos como tama~no (considerando tama~no como el número de nodos del grafo subyacente). Se ha mostrado que cualquier lenguaje enumerable recursivo L puede ser aceptado por un ANSP en el cual el número de procesadores está linealmente acotado por la cardinalidad del alfabeto de la cinta de una máquina de Turing que reconoce dicho lenguaje L. Siguiendo el concepto de ANSP universales introducido por Manea [65], se ha demostrado que un ANSP con una estructura de grafo fija puede aceptar cualquier lenguaje enumerable recursivo. Un ANSP se puede considerar como un ente capaz de resolver problemas, además de tener otra propiedad relevante desde el punto de vista práctico: Se puede definir un ANSP universal como una subred, donde solo una cantidad limitada de parámetros es dependiente del lenguaje. La anterior característica se puede interpretar como un método para resolver cualquier problema NP en tiempo polinomial empleando un ANSP de tama~no constante, concretamente treinta y uno. Esto significa que la solución de cualquier problema NP es uniforme en el sentido de que la red, exceptuando la subred universal, se puede ver como un programa; adaptándolo a la instancia del problema a resolver, se escogerín los filtros y las reglas que no pertenecen a la subred universal. Un problema interesante desde nuestro punto de vista es el que hace referencia a como elegir el tama~no optimo de esta red.---ABSTRACT---This thesis deals with the recent research works in the area of Natural Computing {bio-inspired models{, more precisely Networks of Evolutionary Processors first developed by Victor Mitrana and they are based on P Systems whose father is Georghe Paun. In these models, they are a set of processors connected in an underlying undirected graph, such processors have an object multiset (strings) and a set of rules, named evolution rules, that transform objects inside processors[55, 53],. These objects can be sent/received using graph connections provided they accomplish constraints defined at input and output filters processors have. This symbolic model, non deterministic one (processors are not synchronized) and massive parallel one[55] (all rules can be applied in one computational step) has some important properties regarding solution of NP-problems in lineal time and of course, lineal resources. There are a great number of variants such as hybrid networks, splicing processors, etc. that provide the model a computational power equivalent to Turing machines. The origin of networks of evolutionary processors (NEP for short) is a basic architecture for parallel and distributed symbolic processing, related to the Connection Machine as well as the Logic Flow paradigm, which consists of several processors, each of them being placed in a node of a virtual complete graph, which are able to handle data associated with the respective node. All the nodes send simultaneously their data and the receiving nodes handle also simultaneously all the arriving messages, according to some strategies. In a series of papers one considers that each node may be viewed as a cell having genetic information encoded in DNA sequences which may evolve by local evolutionary events, that is point mutations. Each node is specialized just for one of these evolutionary operations. Furthermore, the data in each node is organized in the form of multisets of words (each word appears in an arbitrarily large number of copies), and all the copies are processed in parallel such that all the possible events that can take place do actually take place. Obviously, the computational process just described is not exactly an evolutionary process in the Darwinian sense. But the rewriting operations we have considered might be interpreted as mutations and the filtering process might be viewed as a selection process. Recombination is missing but it was asserted that evolutionary and functional relationships between genes can be captured by taking only local mutations into consideration. It is clear that filters associated with each node allow a strong control of the computation. Indeed, every node has an input and output filter; two nodes can exchange data if it passes the output filter of the sender and the input filter of the receiver. Moreover, if some data is sent out by some node and not able to enter any node, then it is lost. In this paper we simplify the ANSP model considered in by moving the filters from the nodes to the edges. Each edge is viewed as a two-way channel such that the input and output filters coincide. Clearly, the possibility of controlling the computation in such networks seems to be diminished. For instance, there is no possibility to loose data during the communication steps. In spite of this and of the fact that splicing is not a powerful operation (remember that splicing systems generates only regular languages) we prove here that these devices are computationally complete. As a consequence, we propose characterizations of two complexity classes, namely NP and PSPACE, in terms of accepting networks of restricted splicing processors with filtered connections. We proposed a uniform linear time solution to SAT based on ANSPFCs with linearly bounded resources. This solution should be understood correctly: we do not solve SAT in linear time and space. Since any word and auxiliary word appears in an arbitrarily large number of copies, one can generate in linear time, by parallelism and communication, an exponential number of words each of them having an exponential number of copies. However, this does not seem to be a major drawback since by PCR (Polymerase Chain Reaction) one can generate an exponential number of identical DNA molecules in a linear number of reactions. It is worth mentioning that the ANSPFC constructed above remains unchanged for any instance with the same number of variables. Therefore, the solution is uniform in the sense that the network, excepting the input and output nodes, may be viewed as a program according to the number of variables, we choose the filters, the splicing words and the rules, then we assign all possible values to the variables, and compute the formula.We proved that ANSP are computationally complete. Do the ANSPFC remain still computationally complete? If this is not the case, what other problems can be eficiently solved by these ANSPFCs? Moreover, the complexity class NP is exactly the class of all languages decided by ANSP in polynomial time. Can NP be characterized in a similar way with ANSPFCs?
Resumo:
To date, although much attention has been paid to the estimation and modeling of the voice source (ie, the glottal airflow volume velocity), the measurement and characterization of the supraglottal pressure wave have been much less studied. Some previous results have unveiled that the supraglottal pressure wave has some spectral resonances similar to those of the voice pressure wave. This makes the supraglottal wave partially intelligible. Although the explanation for such effect seems to be clearly related to the reflected pressure wave traveling upstream along the vocal tract, the influence that nonlinear source-filter interaction has on it is not as clear. This article provides an insight into this issue by comparing the acoustic analyses of measured and simulated supraglottal and voice waves. Simulations have been performed using a high-dimensional discrete vocal fold model. Results of such comparative analysis indicate that spectral resonances in the supraglottal wave are mainly caused by the regressive pressure wave that travels upstream along the vocal tract and not by source-tract interaction. On the contrary and according to simulation results, source-tract interaction has a role in the loss of intelligibility that happens in the supraglottal wave with respect to the voice wave. This loss of intelligibility mainly corresponds to spectral differences for frequencies above 1500 Hz.
Resumo:
Perceptual voice evaluation according to the GRBAS scale is modelled using a linear combination of acoustic parameters calculated after a filter-bank analysis of the recorded voice signals. Modelling results indicate that for breathiness and asthenia more than 55% of the variance of perceptual rates can be explained by such a model, with only 4 latent variables. Moreover, the greatest part of the explained variance can be attributed to only one or two latent variables similarly weighted by all 5 listeners involved in the experiment. Correlation factors between actual rates and model predictions around 0.6 are obtained.
Resumo:
La preservación del patrimonio bibliográfico y documental en papel es uno de los mayores retos a los que se enfrentan bibliotecas y archivos de todo el mundo. La búsqueda de soluciones al problema del papel degradado ha sido abordada históricamente desde dos líneas de trabajo predominantes: la conservación de estos documentos mediante la neutralización de los ácidos presentes en ellos con agentes alcalinos, y su restauración mediante el método de laminación fundamentalmente con papel de origen vegetal. Sin embargo, no se ha explorado con éxito la posibilidad de reforzar la celulosa dañada, y el problema sigue sin encontrar una solución satisfactoria. Hasta el día de hoy, el desarrollo de tratamientos basados en biotecnología en la conservación del patrimonio documental ha sido muy escaso, aunque la capacidad de ciertas bacterias de producir celulosa lleva a plantear su uso en el campo de la conservación y restauración del papel. La celulosa bacteriana (CB) es químicamente idéntica a la celulosa vegetal, pero su organización macroscópica es diferente. Sus propiedades únicas (alto grado de cristalinidad, durabilidad, resistencia y biocompatibilidad) han hecho de este material un excelente recurso en diferentes campos. En el desarrollo de esta tesis se ha estudiado el uso de la celulosa bacteriana, de alta calidad, generada por Gluconacetobacter sucrofermentans CECT 7291, para restaurar documentos deteriorados y consolidar los que puedan estar en peligro de degradación, evitando así su destrucción y proporcionando al papel que se restaura unas buenas propiedades mecánicas, ópticas y estructurales. Se desarrollan asimismo protocolos de trabajo que permitan la aplicación de dicha celulosa. En primer lugar se seleccionó el medio de cultivo que proporcionó una celulosa adecuada para su uso en restauración. Para ello se evaluó el efecto que tienen sobre la celulosa generada las fuentes de carbono y nitrógeno del medio de cultivo, manteniendo como parámetros fijos la temperatura y el pH inicial del medio, y efectuando los ensayos en condiciones estáticas. Se evaluó, también, el efecto que tiene en la CB la adición de un 1% de etanol al medio de cultivo. Las capas de celulosa se recolectaron a cuatro tiempos distintos, caracterizando en cada uno de ellos el medio de cultivo (pH y consumo de fuente de carbono), y las capas de CB (pH, peso seco y propiedades ópticas y mecánicas). La mejor combinación de fuentes de carbono y nitrógeno resultó ser fructosa más extracto de levadura y extracto de maíz, con o sin etanol, que proporcionaban una buena relación entre la producción de celulosa y el consumo de fuente de carbono, y que generaban una capa de celulosa resistente y homogénea. La adición de etanol al medio de cultivo, si bien aumentaba la productividad, causaba un descenso apreciable de pH. Las capas de CB obtenidas con los medios de cultivo optimizados se caracterizaron en términos de sus índices de desgarro y estallido, propiedades ópticas, microscopía electrónica de barrido (SEM), difracción de rayos-X, espectroscopía infrarroja con transformada de Fourier (FTIR), grado de polimerización, ángulos de contacto estáticos y dinámicos, y porosimetría de intrusión de mercurio. Por otro lado hay que tener en cuenta que el material restaurado debe ser estable con el tiempo. Por ello esta misma caracterización se efectuó tras someter a las capas de CB a un proceso de envejecimiento acelerado. Los resultados mostraron que la CB resultante tiene un elevado índice de cristalinidad, baja porosidad interna, buenas propiedades mecánicas, y alta estabilidad en el tiempo. Para desarrollar los protocolos de trabajo que permitan la restauración con esta celulosa optimizada, se comienzó con un proceso de selección de los papeles que van a ser restaurados. Se eligieron tres tipos de papeles modelo, hechos con pasta mecánica, química y filtro (antes y después de ser sometidos a un proceso de envejecimiento acelerado), y tres libros viejos adquiridos en el mercado de segunda mano. Estos ejemplares a restaurar se caracterizaron también en términos de sus propiedades mecánicas y fisicoquímicas. El primer protocolo de restauración con CB que se evaluó fue el denominado laminación. Consiste en aplicar un material de refuerzo al documento mediante el uso de un adhesivo. Se seleccionó para ello la CB producida en el medio de cultivo optimizado con un 1% de etanol. Se aplicó un método de purificación alcalino (1 hora a 90 °C en NaOH al 1%) y como adhesivo se seleccionó almidón de trigo. El proceso de laminación se efectuó también con papel japonés (PJ), un material habitualmente utilizado en conservación, para comparar ambos materiales. Se concluyó que no hay diferencias significativas en las características estudiadas entre los dos tipos de materiales de refuerzo. Se caracterizó el material reforzado y, también, después de sufrir un proceso de envejecimiento acelerado. Los papeles laminados con CB mostraban diferencias más marcadas en las propiedades ópticas que los restaurados con PJ, con respecto a los originales. Sin embargo, el texto era más legible cuando el material de restauración era la CB. La mojabilidad disminuía con ambos tipos de refuerzo, aunque en los papeles laminados con CB de manera más marcada e independiente del material a restaurar. Esto se debe a la estructura cerrada de la CB, que también conduce a una disminución en la permeabilidad al aire. Este estudio sugiere que la CB mejora la calidad del papel deteriorado, sin alterar la información que contiene, y que esta mejora se mantiene a lo largo del tiempo. Por tanto, la CB puede ser utilizada como material de refuerzo para laminar, pudiendo ser más adecuada que el PJ para ciertos tipos de papeles. El otro método de restauración que se estudió fue la generación in situ de la CB sobre el papel a restaurar. Para ello se seleccionó el medio de cultivo sin etanol, ya que el descenso de pH que causaba su presencia podría dañar el documento a restaurar. El método de purificación elegido fue un tratamiento térmico (24 horas a 65 °C), menos agresivo para el material a restaurar que el tratamiento alcalino. Se seleccionó la aplicación del medio de cultivo con la bacteria mediante pincel sobre el material a restaurar. Una vez caracterizado el material restaurado, y éste mismo tras sufrir un proceso de envejecimiento acelerado, se concluyó que no hay modificación apreciable en ninguna característica, salvo en la permeabilidad al aire, que disminuye de manera muy evidente con la generación de CB, dando lugar a un material prácticamente impermeable al aire. En general se puede concluir que ha quedado demostrada la capacidad que tiene la celulosa generada por la bacteria Gluconacetobacter sucrofermentans CECT 7291 para ser utilizada como material de refuerzo en la restauración del patrimonio documental en papel. Asimismo se han desarrollado dos métodos de aplicación, uno ex situ y otro in situ, para efectuar esta tarea de restauración. ABSTRACT The preservation of bibliographic and documentary heritage is one of the biggest challenges that libraries and archives around the world have to face. The search for solutions to the problem of degraded paper has historically been focused from two predominants lines of work: the conservation of these documents by the neutralization of acids in them with alkaline agents, and their restoration by lining them with, basically, cellulose from vegetal sources. However, the possibility of strengthening the damaged cellulose has not been successfully explored, and the problem still persists. Until today, the development of biotechnology-based treatments in documentary heritage conservation has been scarce, although the ability of certain bacteria to produce cellulose takes to propose its use in the field of conservation and restoration of paper. The bacterial cellulose (BC) is chemically identical to the plant cellulose, but its macroscopic organization is different. Its unique properties (high degree of crystallinity, durability, strength and biocompatibility), makes it an excellent resource in different fields. The use of high-quality BC generated by Gluconacetobacter sucrofermentans CECT 7291 to restore damaged documents and to consolidate those that may be at risk of degradation, has been studied in this thesis, trying to prevent the document destruction, and to get reinforced papers with good mechanical, optical and structural properties. Protocols that allow the implementation of the BC as a reinforcing material were also developed. First of all, in order to select the culture medium that provides a cellulose suitable for its use in restoration, it has been evaluated the effect that the carbon and nitrogen sources from the culture medium have on the generated BC, keeping the temperature and the initial pH of the medium as fixed parameters, and performing the culture without shaking. The effect of the addition of 1% ethanol to the culture medium on BC properties was also evaluated. The cellulose layers were collected at four different times, characterizing in all of them the culture medium (pH and carbon source consumption), and the BC sheets (pH, dry weight and optical and mechanical properties). The best combination of carbon and nitrogen sources proved to be fructose plus yeast extract and corn steep liquor, with or without ethanol, which provided a good balance between the cellulose production and the consumption of carbon source, and generating BC sheets homogeneous and resistant. The addition of ethanol to the culture medium increased productivity but caused a noticeable decrement in pH. The BC layers generated with these optimized culture media, have been characterized in terms of tear and burst index, optical properties, scanning electron microscopy (SEM), X-ray diffraction, infrared Fourier transform spectroscopy (FTIR), polymerization degree, static and dynamic contact angles, and mercury intrusion porosimetry. Moreover it must be kept in mind that the restored materials should be stable over time. Therefore, the same characterization was performed after subjecting the layers of BC to an accelerated aging process. The results showed that the BC sheets obtained have a high crystallinity index, low internal porosity, good mechanical properties, and high stability over time. To develop working protocols to use this optimized BC in paper restoration, the first step was to select the samples to restore. Three types of model papers, made from mechanical pulp, chemical pulp and filter paper (before and after an accelerated aging process), and three old books purchased in the second hand market, were chosen. These specimens to be restored were also characterized in terms of its mechanical and physicochemical properties. The first protocol of restoration with BC to be evaluated is called linning. It consists on applying a reinforcing material to the document using an adhesive. The BC produced in the optimized culture medium with 1% ethanol was selected. An alkali purification method (1 hour at 90 °C in 1% NaOH) was applied, and wheat starch was selected as adhesive. The linning process was also carried out with Japanese paper (JP), a material commonly used in conservation, in order to compare both materials. It was concluded that there are no significant differences in the characteristics studied of the two types of reinforcing materials. The reinforced materials were characterized before and after undergoing to an accelerated aging. Papers lined with BC showed more marked differences in the optical properties that papers restored with JP. However, the text was more readable when BC was the reinforcing material. Wettability decreased with both types of reinforcement, although in the papers linned with BC it happened more marked and independently of the sample to restore. This is due to the closed structure of BC, which also leads to a decrement in air permeance. This study suggests that BC improves the deteriorated paper quality, without altering the information on it, and that this improvement is maintained over time. Therefore, the BC may be used as reinforcing material for linning, being more suitable than the JP to restore certain types of papers. The other restoration method to be evaluated was the in situ generation of BC over the paper to restore. For this purpose the culture medium without ethanol was selected, as the pH decrement caused by his presence would damage the document to restore. As purification method a heat treatment (24 hours at 65 °C) was chosen, less aggressive to the material to restore than the alkaline treatment. It was decided to apply the culture medium with the bacteria onto the material to restore with a brush. The reinforced material was characterized before and after an accelerated aging process. It was concluded that there was no substantial change in any characteristic, except for air permeance, which decreases very sharply after the generation of BC, getting a substantially air impermeable material. In general, it can be concluded that the ability of BC produced by Gluconacetobacter sucrofermentans CECT 7291 for its use as a reinforcing material in the restoration of paper documentary heritage, has been demonstrated. Also, two restoration methods, one ex situ and another in situ have been developed.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.
Resumo:
El objetivo definitivo de esta investigación es contribuir con la profundización del conocimiento en las tecnologías de remediación, específicamente las térmicas, debido a que la contaminación de suelos es motivo de preocupación por ser uno de los graves impactos ambientales que origina el hombre con sus actividades, especialmente las industriales, afectando a la salud de los seres humanos, y el medio ambiente, representando elevados costes de saneamiento y en ocasiones problemas graves de salud de las comunidades aledañas. Se establecen tres fases de investigación. En la primera se diseña el sistema de termodesorción a escala piloto, se desarrolla las corridas experimentales, la segunda con corridas en laboratorio para investigar sobre los parámetros que intervienen en el proyecto. Se hacen las corridas respectivas para determinar la eficacia del sistema, y la tercera fase que consiste en comparar los modelos teóricos de Hartley, con los de Hartley Graham –Bryce y el de Hamaker para determinar su aproximación con los resultados reales. Apoyado en investigaciones anteriores, se diseñó y construyó un sistema de desorción térmica, el cual consiste en un horno tipo caja con 4 calentadores (resistencias), y una campana con un filtro para evitar la contaminación atmosférica, así mismo, se diseñó un sistema de control que permitió hacer las corridas con 1/3 de la potencia, con una relación de encendido apagado 3:1 respectivamente. Para validar los resultados obtenidos en el estudio matemático, se compararon dos modelos con la finalidad cuál de ellos se aproxima más a la realidad, se tomaron los ensayos con sus tiempos de operación a las temperaturas y se trabajó a distintas bandas de temperaturas para verificar la fiabilidad del proceso matemático. La temperatura es un variable importante en los procesos de desorción, como los son también la humedad del suelo, pues esta va influir directamente en el tiempo de remediación, por lo que es importante tomarla en cuenta. De igual forma el tipo de suelo va influir en los resultados, siendo las arenas más aptas para este tipo de remediación. Los resultados de la modelización son presentados para temperaturas constantes, el cual difiere de la realidad, pues el proceso de calentamiento es lento y va en accenso dependiendo del contenido de humedad y de las propiedades del suelo. La experimentación realizada concluye con buenos resultados de la aplicación de sistemas de desorción de acuerdo a las variables de Panamá. Con relación al grado de cumplimiento respecto a las normativas actuales relacionadas a los límites máximos permitidos. Los resultados garantizan las posibilidades del proceso de remediación térmica de suelos contaminados con combustibles en rango de diésel, garantizando niveles aceptables de limpieza en un tiempo menor a otras metodologías no destructivas pudieran tomar. ABSTRACT The ultimate goal of this investigation is to enhance the pool of knowledge related to remediation technologies, specifically thermal desorption. The motivation for this study is based on concerns due to pollution of land as one of the most serious environmental impacts caused by anthropogenic effects, specially industrial activities, affecting human health and the environment in general, which represents high reclamation costs, and in some cases, serious health issues in nearby communities. Three phases have been established for this study. The first phase involves the design of a thermal desorption system as a pilot experiment, and associated tests. The second phase consists of laboratory testing to investigate the parameters that affect the investigation, as well as to determine the efficacy of the system. The third phase covers the comparison of theorical models as proposed by Hartley, Hartley Graham – Bryce, and Hamaker, as well as the evaluation of these models versus the laboratory results. Supported by previous researches, the thermal desorption system was designed and installed as a “box” type oven with four heaters (resistances) and one absorption hood with a filter to avoid atmospheric contamination. In the same way, a control system was designed allowing testing with 1/3 of the power, with an on/off rate of 3:1 respectively. In order to validate the results, two mathematical models were compared to identify which model is closer to the experimental results; test results were documented with respective durations and temperatures; and experiments were executed using different ranges of temperature to validate the consistency of the mathematical process. Temperature is an important variable that should be considered for the desorption processes, as well as the humidity content within the soil, that has direct influence over the required duration to achieve remediation. In the same manner, the type of soil also influences the results, where sands are more efficient for this type of remediation process. The results from this experiment are according to constant temperatures, which is not a complete representation of the reality, as the heating process is slow and the temperature gradually increases according to the humidity content and other properties of the soil. The experiment shows good results for the application of thermal desorption systems according to the variables in Panama, as well as the level of compliance required to fulfill current regulations and mandatory maximum limits. The results guarantee the possibility of soil thermo-remediation as a resource to clean sites that have been polluted with diesel-like combustibles, allowing acceptable levels in a period of time that is lower than with other non-destructive remediation technics.
Resumo:
El concepto tradicional de reglas de ensamblaje refleja la idea de que las especies no co-ocurren al azar sino que están restringidos en su co-ocurrencia por la competencia interespecífica o por un filtrado ambiental. En está tesis abordé la importancia de los procesos que determinan el ensamble de la comunidad en la estructuración de los Bosques Secos en el Sur del Ecuador. Este estudio se realizó en la región biogeográfica Tumbesina, donde se encuentra la mayor concentración de bosques secos tropicales bien conservados del sur de Ecuador, y que constituyen una de las áreas de endemismo más importantes del mundo. El clima se caracteriza por una estación seca que va desde mayo a diciembre y una estación lluviosa de enero a abril, su temperatura anual varía entre 20°C y 26°C y una precipitación promedio anual entre 300 y 700 mm. Mi primer tema fue orientado a evaluar si la distribución de los rasgos funcionales a nivel comunitario es compatible con la existencia de un filtro ambiental (filtrado del hábitat) o con la existencia de un proceso de limitación de la semejanza funcional impuesta por la competencia inter-específica entre 58 especies de plantas leñosas repartidas en 109 parcelas (10x50m). Para ello, se analizó la distribución de los valores de cinco rasgos funcionales (altura máxima, densidad de la madera, área foliar específica, tamaño de la hoja y de masa de la semilla), resumida mediante varios estadísticos (rango, varianza, kurtosis y la desviación estándar de la distribución de distancias funcionales a la especies más próxima) y se comparó con la distribución esperada bajo un modelo nulo con ausencia de competencia. Los resultados obtenidos apoyan que tanto el filtrado ambiental como la limitación a la semejanza afectan el ensamble de las comunidades vegetales de los bosques secos Tumbesinos. Un segundo tema fue identificar si la diversidad funcional está condicionada por los gradientes ambientales, y en concreto si disminuye en los ambientes más estresantes a causa del filtrado ambiental, y si por el contrario aumenta en los ambientes más benignos donde la competencia se vuelve más importante, teniendo en cuenta las posibles modificaciones a este patrón general a causa de las interacciones de facilitación. Para abordar este estudio analizamos tanto las variaciones en la diversidad funcional (respecto a los de los cinco rasgos funcionales empleados en el primer capítulo de la tesis) como las variaciones de diversidad filogenética a lo largo de un gradiente de estrés climático en los bosques tumbesinos, y se contrastaron frente a las diversidades esperadas bajo un modelo de ensamblaje completamente aleatorio de la comunidad. Los análisis mostraron que tan sólo la diversidad de tamaños foliares siguió el patrón de variación esperado, disminuyendo a medida que aumentó el estrés abiótico mientras que ni el resto de rasgos funcionales ni la diversidad funcional multivariada ni la diversidad filogenética mostraron una variación significativa a lo largo del gradiente ambiental. Un tercer tema fue evaluar si los procesos que organizan la estructura funcional de la comunidad operan a diferentes escalas espaciales. Para ello cartografié todos los árboles y arbustos de más de 5 cm de diámetro en una parcela de 9 Ha de bosque seco y caractericé funcionalmente todas las especies. Dicha parcela fue dividida en subparcelas de diferente tamaño, obteniéndose subparcelas a seis escalas espaciales distintas. Los resultados muestran agregación de estrategias funcionales semejantes a escalas pequeñas, lo que sugiere la existencia bien de filtros ambientales actuando a escala fina o bien de procesos competitivos que igualan la estrategia óptima a dichas escalas. Finalmente con la misma información de la parcela permanente de 9 Ha. Nos propusimos evaluar el efecto y comportamiento de las especies respecto a la organización de la diversidad taxonómica, funcional y filogenética. Para ello utilicé tres funciones sumario espaciales: ISAR- para el nivel taxonómico, IFDAR para el nivel funcional y IPSVAR para el nivel filogenética y las contrastamos frente a modelos nulos que describen la distribución espacial de las especies individuales. Los resultados mostraron que en todas las escalas espaciales consideradas para ISAR, IFDAR y IPSVAR, la mayoría de las especies se comportaron como neutras, es decir, que están rodeados por la riqueza de diversidad semejante a la esperada. Sin embargo, algunas especies aparecieron como acumuladoras de diversidad funcional y filogenética, lo que sugiere su implicación en procesos competitivos de limitación de la semejanza. Una pequeña proporción de las especies apareció como repelente de la diversidad funcional y filogenética, lo que sugiere su implicación en un proceso de filtrado de hábitat. En este estudio pone de relieve cómo el análisis de las dimensiones alternativas de la biodiversidad, como la diversidad funcional y filogenética, puede ayudarnos a entender la co-ocurrencia de especies en diversos ensambles de comunidad. Todos los resultados de este estudio aportan nuevas evidencias de los procesos de ensamblaje de la comunidad de los Bosques Estacionalmente secos y como las variables ambientales y la competencia juegan un papel importante en la estructuración de la comunidad. ABSTRACT The traditional concept of the rules assembly for species communities reflects the idea that species do not co-occur at random but are restricted in their co-occurrence by interspecific competition or an environmental filter. In this thesis, I addressed the importance of the se processes in the assembly of plant communities in the dry forests of southern Ecuador. This study was conducted in the biogeographic region of Tumbesina has the largest concentration of well-conserved tropical dry forests of southern Ecuador, and is recognized as one of the most important areas of endemism in the world. The climate is characterized by a dry season from May to December and a rainy season from January to April. The annual temperature varies between 20 ° C and 26 ° C and an average annual rainfall between 300 and 700 mm. I first assessed whether the distribution of functional traits at the level of the community is compatible with the existence of an environmental filter (imposed by habitat) or the existence of a limitation on functional similarity imposed by interspecific competition. This analysis was conducted for 58 species of woody plants spread over 109 plots of 10 x 50 m. Specifically, I compared the distribution of values of five functional traits (maximum height, wood density, specific leaf area, leaf size and mass of the seed), via selected statistical properties (range, variance, kurtosis and analyzed the standard deviation of the distribution of the closest functional species) distances and compared with a expected distribution under a null model of no competition. The results support that both environmental filtering and a limitation on trait similarity affect the assembly of plant communities in dry forests Tumbesina. My second chapter evaluated whether variation in functional diversity is conditioned by environmental gradients. In particular, I tested whether it decreases in the most stressful environments because of environmental filters, or if, on the contrary, functional diversity is greater in more benign environments where competition becomes more important (notwithstanding possible changes to this general pattern due to facilitation). To address this theme I analyzed changes in both the functional diversity (maximum height, wood density, specific leaf area, leaf size and mass of the seed) and the phylogenetic diversity, along a gradient of climatic stress in Tumbes forests. The observed patterns of variation were contrasted against the diversity expected under a completely random null model of community assembly. Only the diversity of leaf sizes followed the hypothesis decreasing in as trait variation abiotic stress increased, while the other functional traits multivariate functional diversity and phylogenetic diversity no showed significant variation along the environmental gradient. The third theme assess whether the processes that organize the functional structure of the community operate at different spatial scales. To do this I mapped all the trees and shrubs of more than 5 cm in diameter within a plot of 9 hectares of dry forest and functionally classified each species. The plot was divided into subplots of different sizes, obtaining subplots of six different spatial scales. I found aggregation of similar functional strategies at small scales, which may indicate the existence of environmental filters or competitive processes that correspond to the optimal strategy for these fine scales. Finally, with the same information from the permanent plot of 9 ha, I evaluated the effect and behavior of individual species on the organization of the taxonomic, functional and phylogenetic diversity. The analysis comprised three spatial summary functions: ISAR- for taxonomic level analysis, IFDAR for functional level analysis, and IPSVAR for phylogenetic level analysis, in each case the pattern of diversity was contrasted against null models that randomly reallocate describe the spatial distribution of individual species and their traits. For all spatial scales considering ISAR, IFDAR and IPSVAR, most species behaved as neutral, i.e. they are surrounded by the diversity of other traits similar to that expected under a null model. However, some species appeared as accumulator of functional and phylogenetic diversity, suggesting that they may play a role in competitive processes that limiting similarity. A small proportion of the species appeared as repellent of functional and phylogenetic diversity, suggesting their involvement in a process of habitat filtering. These analysis highlights that the analysis of alternative dimensions of biodiversity, such as functional and phylogenetic diversity, can help us understand the co-occurrence of species in the assembly of biotic communities. All results of this study provide further evidence of the processes of assembly of the community of the seasonally dry forests as environmental variables and competition play an important role in structuring the community.
Resumo:
El empleo de refuerzos de FRP en vigas de hormigón armado es cada vez más frecuente por sus numerosas ventajas frente a otros métodos más tradicionales. Durante los últimos años, la técnica FRP-NSM, consistente en introducir barras de FRP sobre el recubrimiento de una viga de hormigón, se ha posicionado como uno de los mejores métodos de refuerzo y rehabilitación de estructuras de hormigón armado, tanto por su facilidad de montaje y mantenimiento, como por su rendimiento para aumentar la capacidad resistente de dichas estructuras. Si bien el refuerzo a flexión ha sido ampliamente desarrollado y estudiado hasta la fecha, no sucede lo mismo con el refuerzo a cortante, debido principalmente a su gran complejidad. Sin embargo, se debería dedicar más estudio a este tipo de refuerzo si se pretenden conservar los criterios de diseño en estructuras de hormigón armado, los cuales están basados en evitar el fallo a cortante por sus consecuencias catastróficas Esta ausencia de información y de normativa es la que justifica esta tesis doctoral. En este pro-yecto se van a desarrollar dos metodologías alternativas, que permiten estimar la capacidad resistente de vigas de hormigón armado, reforzadas a cortante mediante la técnica FRP-NSM. El primer método aplicado consiste en la implementación de una red neuronal artificial capaz de predecir adecuadamente la resistencia a cortante de vigas reforzadas con este método a partir de experimentos anteriores. Asimismo, a partir de la red se han llevado a cabo algunos estudios a fin de comprender mejor la influencia real de algunos parámetros de la viga y del refuerzo sobre la resistencia a cortante con el propósito de lograr diseños más seguros de este tipo de refuerzo. Una configuración óptima de la red requiere discriminar adecuadamente de entre los numerosos parámetros (geométricos y de material) que pueden influir en el compor-tamiento resistente de la viga, para lo cual se han llevado a cabo diversos estudios y pruebas. Mediante el segundo método, se desarrolla una ecuación de proyecto que permite, de forma sencilla, estimar la capacidad de vigas reforzadas a cortante con FRP-NSM, la cual podría ser propuesta para las principales guías de diseño. Para alcanzar este objetivo, se plantea un pro-blema de optimización multiobjetivo a partir de resultados de ensayos experimentales llevados a cabo sobre vigas de hormigón armado con y sin refuerzo de FRP. El problema multiobjetivo se resuelve mediante algoritmos genéticos, en concreto el algoritmo NSGA-II, por ser más apropiado para problemas con varias funciones objetivo que los métodos de optimización clásicos. Mediante una comparativa de las predicciones realizadas con ambos métodos y de los resulta-dos de ensayos experimentales se podrán establecer las ventajas e inconvenientes derivadas de la aplicación de cada una de las dos metodologías. Asimismo, se llevará a cabo un análisis paramétrico con ambos enfoques a fin de intentar determinar la sensibilidad de aquellos pa-rámetros más sensibles a este tipo de refuerzo. Finalmente, se realizará un análisis estadístico de la fiabilidad de las ecuaciones de diseño deri-vadas de la optimización multiobjetivo. Con dicho análisis se puede estimar la capacidad resis-tente de una viga reforzada a cortante con FRP-NSM dentro de un margen de seguridad espe-cificado a priori. ABSTRACT The use of externally bonded (EB) fibre-reinforced polymer (FRP) composites has gained acceptance during the last two decades in the construction engineering community, particularly in the rehabilitation of reinforced concrete (RC) structures. Currently, to increase the shear resistance of RC beams, FRP sheets are externally bonded (EB-FRP) and applied on the external side surface of the beams to be strengthened with different configurations. Of more recent application, the near-surface mounted FRP bar (NSM-FRP) method is another technique successfully used to increase the shear resistance of RC beams. In the NSM method, FRP rods are embedded into grooves intentionally prepared in the concrete cover of the side faces of RC beams. While flexural strengthening has been widely developed and studied so far, the same doesn´t occur to shearing strength mainly due to its great complexity. Nevertheless, if design criteria are to be preserved more research should be done to this sort of strength, which are based on avoiding shear failure and its catastrophic consequences. However, in spite of this, accurately calculating the shear capacity of FRP shear strengthened RC beams remains a complex challenge that has not yet been fully resolved due to the numerous variables involved in the procedure. The objective of this Thesis is to develop methodologies to evaluate the capacity of FRP shear strengthened RC beams by dealing with the problem from a different point of view to the numerical modeling approach by using artificial intelligence techniques. With this purpose two different approaches have been developed: one concerned with the use of artificial neural networks and the other based on the implementation of an optimization approach developed jointly with the use of artificial neural networks (ANNs) and solved with genetic algorithms (GAs). With these approaches some of the difficulties concerned regarding the numerical modeling can be overcome. As an alternative tool to conventional numerical techniques, neural networks do not provide closed form solutions for modeling problems but do, however, offer a complex and accurate solution based on a representative set of historical examples of the relationship. Furthermore, they can adapt solutions over time to include new data. On the other hand, as a second proposal, an optimization approach has also been developed to implement simple yet accurate shear design equations for this kind of strengthening. This approach is developed in a multi-objective framework by considering experimental results of RC beams with and without NSM-FRP. Furthermore, the results obtained with the previous scheme based on ANNs are also used as a filter to choose the parameters to include in the design equations. Genetic algorithms are used to solve the optimization problem since they are especially suitable for solving multi-objective problems when compared to standard optimization methods. The key features of the two proposed procedures are outlined and their performance in predicting the capacity of NSM-FRP shear strengthened RC beams is evaluated by comparison with results from experimental tests and with predictions obtained using a simplified numerical model. A sensitivity study of the predictions of both models for the input parameters is also carried out.
Resumo:
La tesis estudia en detalle la Hunstanton Secondary School y su trascendencia. Así, se trata de analizar el conjunto de procesos que hace que esta obra sea entendida como el manifiesto construido del Nuevo Brutalismo en Inglaterra. La Escuela en Hunstanton fue la primera obra proyectada y construida por los Smithson y, si se considera que el legado que dejaron Alison y Peter fue más de carácter teórico que constructivo, ésta se ha convertido en un edificio relevante dentro de su trayectoria profesional. Además, el rigor con el que fue realizado el proyecto y la ratificación de las ideas que subyacían tras él, a pesar del extenso intervalo temporal que caracterizó su proceso constructivo, hacen que esta obra se convierta en una síntesis de la filosofía arquitectónica gestada en Inglaterra tras la guerra. Por otro lado, hay que contemplar que la sencillez del lenguaje constructivo empleado, viene dada por la compleja reiteración de los sistemas proyectuales tipo que formulan para este proyecto y el establecimiento de una gramática casi matemática. La sistematización de su vocabulario hace que, tras el análisis de su arquitectura, se encuentren nuevos parámetros capaces de documentar este momento de la historia de la arquitectura en Inglaterra. La envolvente del edificio constituye al tiempo fachada y estructura. Esta característica ha pasado inadvertida cuando, en numerosas ocasiones y durante seis décadas, se han venido publicando las fotografías de la obra terminada y los dibujos que los Smithson habían realizado en la fase de proyecto. Como consecuencia, ha proliferado el conocimiento de la arquitectura de la escuela a un nivel más superficial, mostrando el resultado formal de la misma y con ello, simplemente se ha dejado intuir la gran influencia que Mies Van der Rohe provocó en los Smithson en los primeros años de desarrollo de su labor como arquitectos. El objetivo principal de esta tesis es, por tanto, facilitar el entendimiento del espacio que propusieron los Smithson a partir del análisis pormenorizado de los distintos sistemas constructivos empleados y del equipo personal que se vio implicado en su construcción. Para ello, es necesario abordar el estudio de los materiales y mecanismos proyectuales que hicieron posible que este conjunto de espacios –interiores y exteriores- resultase definido a través de la relación entre dos variables: una evidente austeridad en la utilización de los materiales y la combinación de los distintos sistemas intervinientes a partir del recurso de la repetición. La Escuela de Hunstanton, a pesar de las inoportunas intervenciones realizadas para adaptar el centro a unas necesidades derivadas de su número de alumnos actual (el doble que en su inicio), continúa proclamando su integridad espacial. Partiendo de la hipótesis de que la arquitectura de la Secondary School en Hunstanton, representa el manifiesto construido del Nuevo Brutalismo en Inglaterra, se concluye que el resultado de su construcción fue consecuencia de numerosas influencias que, en relación con los Smithson, estuvieron presentes durante los años en que se gestó. Algo que va más allá de la conclusión de aquellos debates arquitectónicos que se habían emprendido, por escrito, en las distintas revistas locales de arquitectura. Los mecanismos compositivos empleados, también habían tenido mucho que ver con lo que los historiadores del arte habían venido aportando a la historia de la arquitectura hasta ese momento. Desde los años 40, éstos últimos habían emprendido una nueva manera de contar la historia en la que quedaba fuertemente involucrada su capacidad crítica, provocando interferencias en la mentalidad de los arquitectos de nueva generación y otorgándoles un bagaje cultural subliminalmente determinado y subjetivo. Por supuesto, en el resultado arquitectónico final, también tuvieron mucho que ver los recursos materiales de que se disponía en aquel momento. Así como la optimización de los mismos a través de la adopción de nuevas metodologías de trabajo como puede ser la organización multidisciplinar. La inclusión del ingeniero Ronald Jenkins en el equipo de trabajo de los Smithson supuso una gran oportunidad. Este ingeniero, propuso poner en práctica la entonces innovadora Teoría Plástica en la metodología de cálculo estructural y, con ello consiguió enriquecer el resultado espacial, posibilitando la percepción de una arquitectura ligera –a pesar de sus grandes dimensiones- y vinculada al paisaje donde se inserta. Pero todos estos condicionantes fueron pasados a su vez por el filtro del deseo de una regeneración social, que buscaba el modelo de la sociedad americana. El Buen Vivir que propugnaban los americanos, viajaba a Europa de la mano de la publicidad. Y, al igual que la componente publicitaria tuvo algo que ver en el proceso creativo de la arquitectura de la escuela, también lo tuvo el conocimiento del arte pop y sus recursos compositivos. ABSTRACT The thesis examines in detail the project of Hunstanton Secondary School and the architectural language’s significance used in it. Thus, it is reinterpreting the set of processes that makes this work to be understood as the “built manifesto” of the English New Brutalism. Hunstanton School’s project was the first work designed and built by the Smithsons and, considering their legacy -more theoretical than constructed-, make of this building an important work within their career. In addition, the rigor with which it was carried out the project and the ratification of the ideas lying behind him, make this work becomes a synthesis of the architectural philosophy gestated in England after the war, despite the extensive time interval that characterized its construction process. On the other hand, it must be considered the simplicity of the constructive language used in this project. It is given by the complex projective repetition of the type systems and by the establishment of a quasi-mathematical grammar. The systematization of its vocabulary makes, after a deep analysis of its architecture, to recognize new parameters able to document this moment in the history of English architecture. The building envelope is, at the same time, facade and structure. This feature has been overlooked when many photographs of the finished work and its drawings -made by the Smithsons during the design phase- has been exposed over six decades. As a result, it has proliferated the knowledge of Hunstanton Secondary Modern School’s architecture as a more superficial level, just by showing the formal outcome of its project and thus simply been left the sensation of the great influence that Mies Van der Rohe provocated in the Smithson thinking during their first years of developing his work as architects. Therefore, the main objective of this thesis is to facilitate an understanding of the Smithsons’ proposed space. This is made possible through the detailed analysis of the different systems used in it and, by understanding the knowledge of the team involved in its construction. To prove this, it is necessary to pay attention to the study of the materials and to different project mechanisms that make possible to this group of spaces -inner and outer- be defined through the game played by two variables: an apparent austerity in the use of materials and the combination of the various participant systems through the resource of repetition. Despite the untimely interventions made in order to adapt the center to the new needs (the large increase in the number of students), Hunstanton School’s building continues proclaiming its spatial integrity. Assuming that Hunstanton Secondary School’s architecture represents the manifesto of New Brutalism in England, it is concluded that the result of its construction was the result of numerous influences that, in connection with the Smithsons, were present during the years in which its project was conceived. This meaning goes beyond the conclusions made from the architectural debate that was published in many of local architectural magazines. The compositional mechanisms employed, are also linked to what art historians had contributed to the history of architecture until then. Since the 40s, historians had undertaken a new way to tell History. This new mode strongly implied its critical capacity. All this, was causing interferences in the mentality of the architects of the new generation and, giving them a subliminally determined and very subjective cultural background. Of course, the final architectural result had much to do with the material resources available at that time and, with its optimization through the adoption of new working methods as the multidisciplinary organization. The inclusion of engineer Ronald Jenkins in the team of the Smithsons was a great opportunity. He proposed to implement the new Plastic Theory in the structural calculation and thereby he got enrich the spatial results achieved, by enabling the perception of a lightweight construction, despite its large size and, linked to the landscape where it is inserted. But all these conditions were passed through the filter of social regeneration’s desire, following the American society’s model. This American model travelled to Europe in the hands of advertising. And, in the same way that publicity had something to do with the creative process of this architecture, also had a lot to do the knowledge of pop art and its compositional resources.