89 resultados para Remoción en masa
Resumo:
La óptica anidólica es una rama de la óptica cuyo desarrollo comenzó a mediados de la década de 1960. Este relativamente nuevo campo de la óptica se centra en la transferencia eficiente de la luz, algo necesario en muchas aplicaciones, entre las que destacamos los concentradores solares y los sistemas de iluminación. Las soluciones de la óptica clásica a los problemas de la transferencia de energía de la luz sólo son adecuadas cuando los rayos de luz son paraxiales. La condición paraxial no se cumple en la mayoría de las aplicaciones para concentración e iluminación. Esta tesis contiene varios diseños free-form (aquellos que no presentan ninguna simetría, ni de rotación ni lineal) cuyas aplicaciones van destinadas a estos dos campos. El término nonimaging viene del hecho de que estos sistemas ópticos no necesitan formar una imagen del objeto, aunque no formar la imagen no es una condición necesaria. Otra palabra que se utiliza a veces en lugar de nonimaging es la palabra anidólico, viene del griego "an+eidolon" y tiene el mismo significado. La mayoría de los sistemas ópticos diseñados para aplicaciones anidólicas no presentan ninguna simetría, es decir, son free-form (anamórficos). Los sistemas ópticos free-form están siendo especialmente relevantes durante los últimos años gracias al desarrollo de las herramientas para su fabricación como máquinas de moldeo por inyección y el mecanizado multieje. Sin embargo, solo recientemente se han desarrollado técnicas de diseño anidólicas capaces de cumplir con estos grados de libertad. En aplicaciones de iluminación el método SMS3D permite diseñar dos superficies free-form para controlar las fuentes de luz extensas. En los casos en que se requiere una elevada asimetría de la fuente, el objeto o las restricciones volumétricos, las superficies free-form permiten obtener soluciones de mayor eficiencia, o disponer de menos elementos en comparación con las soluciones de simetría de rotación, dado que las superficies free-form tienen más grados de libertad y pueden realizar múltiples funciones debido a su naturaleza anamórfica. Los concentradores anidólicos son muy adecuados para la captación de energía solar, ya que el objetivo no es la reproducción de una imagen exacta del sol, sino sencillamente la captura de su energía. En este momento, el campo de la concentración fotovoltaica (CPV) tiende hacia sistemas de alta concentración con el fin de compensar el gasto de las células solares multi-unión (MJ) utilizadas como receptores, reduciendo su área. El interés en el uso de células MJ radica en su alta eficiencia de conversión. Para obtener sistemas competitivos en aplicaciones terrestres se recurre a sistemas fotovoltaicos de alta concentración (HCPV), con factores de concentración geométrica por encima de 500x. Estos sistemas se componen de dos (o más) elementos ópticos (espejos y/o lentes). En los sistemas presentados a lo largo de este trabajo se presentan ejemplos de concentradores HCPV con elementos reflexivos como etapa primaria, así como concentradores con elementos refractivos (lente de Fresnel). Con la necesidad de aumentar la eficiencia de los sistemas HCPV reales y con el fin de proporcionar la división más eficiente del espectro solar, células conteniendo cuatro o más uniones (con un potencial de alcanzar eficiencias de más del 45% a una concentración de cientos de soles) se exploran hoy en día. En esta tesis se presenta una de las posibles arquitecturas de división del espectro (spectrum-splitting en la literatura anglosajona) que utilizan células de concentración comercial. Otro campo de aplicación de la óptica nonimaging es la iluminación, donde es necesario proporcionar un patrón de distribución de la iluminación específico. La iluminación de estado sólido (SSL), basada en la electroluminiscencia de materiales semiconductores, está proporcionando fuentes de luz para aplicaciones de iluminación general. En la última década, los diodos emisores de luz (LED) de alto brillo han comenzado a reemplazar a las fuentes de luz convencionales debido a la superioridad en la calidad de la luz emitida, elevado tiempo de vida, compacidad y ahorro de energía. Los colimadores utilizados con LEDs deben cumplir con requisitos tales como tener una alta eficiencia, un alto control del haz de luz, una mezcla de color espacial y una gran compacidad. Presentamos un colimador de luz free-form con microestructuras capaz de conseguir buena colimación y buena mezcla de colores con una fuente de LED RGGB. Una buena mezcla de luz es importante no sólo para simplificar el diseño óptico de la luminaria sino también para evitar hacer binning de los chips. La mezcla de luz óptica puede reducir los costes al evitar la modulación por ancho de pulso y otras soluciones electrónicas patentadas para regulación y ajuste de color. Esta tesis consta de cuatro capítulos. Los capítulos que contienen la obra original de esta tesis son precedidos por un capítulo introductorio donde se presentan los conceptos y definiciones básicas de la óptica geométrica y en el cual se engloba la óptica nonimaging. Contiene principios de la óptica no formadora de imagen junto con la descripción de sus problemas y métodos de diseño. Asimismo se describe el método de Superficies Múltiples Simultáneas (SMS), que destaca por su versatilidad y capacidad de controlar varios haces de rayos. Adicionalmente también se describe la integración Köhler y sus aplicaciones en el campo de la energía fotovoltaica. La concentración fotovoltaica y la iluminación de estado sólido son introducidas junto con la revisión de su estado actual. El Segundo y Tercer Capítulo contienen diseños ópticos avanzados con aplicación en la concentración solar principalmente, mientras que el Cuarto Capítulo describe el colimador free-form con surcos que presenta buena mezcla de colores para aplicaciones de iluminación. El Segundo Capítulo describe dos concentradores ópticos HCPV diseñados con el método SMS en tres dimensiones (SMS3D) que llevan a cabo integración Köhler en dos direcciones con el fin de proporcionar una distribución de irradiancia uniforme libre de aberraciones cromáticas sobre la célula solar. Uno de los diseños es el concentrador XXR free-form diseñado con el método SMS3D, donde el espejo primario (X) y la lente secundaria (R) se dividen en cuatro sectores simétricos y llevan a cabo la integración Köhler (proporcionando cuatro unidades del array Köhler), mientras que el espejo intermedio (X) presenta simetría rotacional. Otro concentrador HCPV presentado es el Fresnel-RXI (FRXI) con una lente de Fresnel funcionando como elemento primario (POE) y una lente RXI como elemento óptico secundario (SOE), que presenta configuración 4-fold con el fin de realizar la integración Köhler. Las lentes RXI son dispositivos nonimaging conocidos, pero su aplicación como elemento secundario es novedosa. Los concentradores XXR y FRXI Köhler son ejemplos académicos de muy alta concentración (más de 2,000x, mientras que los sistemas convencionales hoy en día no suelen llegar a 1,000x) preparados para las células solares N-unión (con N>3), que probablemente requerirán una mayor concentración y alta uniformidad espectral de irradiancia con el fin de obtener sistemas CPV terrestres eficientes y rentables. Ambos concentradores están diseñados maximizando funciones de mérito como la eficiencia óptica, el producto concentración-aceptancia (CAP) y la uniformidad de irradiancia sobre la célula libre de la aberración cromática (integración Köhler). El Tercer Capítulo presenta una arquitectura para la división del espectro solar basada en un módulo HCPV con alta concentración (500x) y ángulo de aceptancia alto (>1º) que tiene por objeto reducir ambas fuentes de pérdidas de las células triple unión (3J) comerciales: el uso eficiente del espectro solar y la luz reflejada de los contactos metálicos y de la superficie de semiconductor. El módulo para la división del espectro utiliza el espectro solar más eficiente debido a la combinación de una alta eficiencia de una célula de concentración 3J (GaInP/GaInAs/Ge) y una de contacto posterior (BPC) de concentración de silicio (Si), así como la técnica de confinamiento externo para la recuperación de la luz reflejada por la célula 3J con el fin de ser reabsorbida por la célula. En la arquitectura propuesta, la célula 3J opera con su ganancia de corriente optimizada (concentración geométrica de 500x), mientras que la célula de silicio trabaja cerca de su óptimo también (135x). El módulo de spectrum-splitting consta de una lente de Fresnel plana como POE y un concentrador RXI free-form como SOE con un filtro paso-banda integrado en él. Tanto POE como SOE realizan la integración Köhler para producir homogeneización de luz sobre la célula. El filtro paso banda envía los fotones IR en la banda 900-1,150nm a la célula de silicio. Hay varios aspectos prácticos de la arquitectura del módulo presentado que ayudan a reducir la complejidad de los sistemas spectrum-splitting (el filtro y el secundario forman una sola pieza sólida, ambas células son coplanarias simplificándose el cableado y la disipación de calor, etc.). Prototipos prueba-de-concepto han sido ensamblados y probados a fin de demostrar la fabricabilidad del filtro y su rendimiento cuando se combina con la técnica de reciclaje de luz externa. Los resultados obtenidos se ajustan bastante bien a los modelos y a las simulaciones e invitan al desarrollo de una versión más compleja de este prototipo en el futuro. Dos colimadores sólidos con surcos free-form se presentan en el Cuarto Capítulo. Ambos diseños ópticos están diseñados originalmente usando el método SMS3D. La segunda superficie ópticamente activa está diseñada a posteriori como una superficie con surcos. El diseño inicial de dos espejos (XX) está diseñado como prueba de concepto. En segundo lugar, el diseño RXI free-form es comparable con los colimadores RXI existentes. Se trata de un diseño muy compacto y eficiente que proporciona una muy buena mezcla de colores cuando funciona con LEDs RGB fuera del eje óptico como en los RGB LEDs convencionales. Estos dos diseños son dispositivos free-form diseñados con la intención de mejorar las propiedades de mezcla de colores de los dispositivos no aplanáticos RXI con simetría de revolución y la eficiencia de los aplanáticos, logrando una buena colimación y una buena mezcla de colores. La capacidad de mezcla de colores del dispositivo no-aplanático mejora añadiendo características de un aplanático a su homólogo simétrico sin pérdida de eficiencia. En el caso del diseño basado en RXI, su gran ventaja consiste en su menor coste de fabricación ya que el proceso de metalización puede evitarse. Aunque algunos de los componentes presentan formas muy complejas, los costes de fabricación son relativamente insensibles a la complejidad del molde, especialmente en el caso de la producción en masa (tales como inyección de plástico), ya que el coste del molde se reparte entre todas las piezas fabricadas. Por último, las últimas dos secciones son las conclusiones y futuras líneas de investigación. ABSTRACT Nonimaging optics is a branch of optics whose development began in the mid-1960s. This rather new field of optics focuses on the efficient light transfer necessary in many applications, among which we highlight solar concentrators and illumination systems. The classical optics solutions to the problems of light energy transfer are only appropriate when the light rays are paraxial. The paraxial condition is not met in most applications for the concentration and illumination. This thesis explores several free-form designs (with neither rotational nor linear symmetry) whose applications are intended to cover the above mentioned areas and more. The term nonimaging comes from the fact that these optical systems do not need to form an image of the object, although it is not a necessary condition not to form an image. Another word sometimes used instead of nonimaging is anidolic, and it comes from the Greek “an+eidolon” and has the same meaning. Most of the optical systems designed for nonimaging applications are without any symmetry, i.e. free-form. Free-form optical systems become especially relevant lately with the evolution of free-form tooling (injection molding machines, multi-axis machining techniques, etc.). Nevertheless, only recently there are nonimaging design techniques that are able to meet these degrees of freedom. In illumination applications, the SMS3D method allows designing two free-form surfaces to control very well extended sources. In cases when source, target or volumetric constrains have very asymmetric requirements free-form surfaces are offering solutions with higher efficiency or with fewer elements in comparison with rotationally symmetric solutions, as free-forms have more degrees of freedom and they can perform multiple functions due to their free-form nature. Anidolic concentrators are well suited for the collection of solar energy, because the goal is not the reproduction of an exact image of the sun, but instead the collection of its energy. At this time, Concentration Photovoltaics (CPV) field is turning to high concentration systems in order to compensate the expense of multi-junction (MJ) solar cells used as receivers by reducing its area. Interest in the use of MJ cells lies in their very high conversion efficiency. High Concentration Photovoltaic systems (HCPV) with geometric concentration of more than 500x are required in order to have competitive systems in terrestrial applications. These systems comprise two (or more) optical elements, mirrors and/or lenses. Systems presented in this thesis encompass both main types of HCPV architectures: concentrators with primary reflective element and concentrators with primary refractive element (Fresnel lens). Demand for the efficiency increase of the actual HCPV systems as well as feasible more efficient partitioning of the solar spectrum, leads to exploration of four or more junction solar cells or submodules. They have a potential of reaching over 45% efficiency at concentration of hundreds of suns. One possible architectures of spectrum splitting module using commercial concentration cells is presented in this thesis. Another field of application of nonimaging optics is illumination, where a specific illuminance distribution pattern is required. The Solid State Lighting (SSL) based on semiconductor electroluminescence provides light sources for general illumination applications. In the last decade high-brightness Light Emitting Diodes (LEDs) started replacing conventional light sources due to their superior output light quality, unsurpassed lifetime, compactness and energy savings. Collimators used with LEDs have to meet requirements like high efficiency, high beam control, color and position mixing, as well as a high compactness. We present a free-form collimator with microstructures that performs good collimation and good color mixing with RGGB LED source. Good light mixing is important not only for simplifying luminaire optical design but also for avoiding die binning. Optical light mixing may reduce costs by avoiding pulse-width modulation and other patented electronic solutions for dimming and color tuning. This thesis comprises four chapters. Chapters containing the original work of this thesis are preceded by the introductory chapter that addresses basic concepts and definitions of geometrical optics on which nonimaging is developed. It contains fundamentals of nonimaging optics together with the description of its design problems, principles and methods, and with the Simultaneous Multiple Surface (SMS) method standing out for its versatility and ability to control several bundles of rays. Köhler integration and its applications in the field of photovoltaics are described as well. CPV and SSL fields are introduced together with the review on their background and their current status. Chapter 2 and Chapter 3 contain advanced optical designs with primarily application in solar concentration; meanwhile Chapter 4 portrays the free-form V-groove collimator with good color mixing property for illumination application. Chapter 2 describes two HCPV optical concentrators designed with the SMS method in three dimensions (SMS3D). Both concentrators represent Köhler integrator arrays that provide uniform irradiance distribution free from chromatic aberrations on the solar cell. One of the systems is the XXR free-form concentrator designed with the SMS3D method. The primary mirror (X) of this concentrator and secondary lens (R) are divided in four symmetric sectors (folds) that perform Köhler integration; meanwhile the intermediate mirror (X) is rotationally symmetric. Second HCPV concentrator is the Fresnel-RXI (FRXI) with flat Fresnel lens as the Primary Optical Element (POE) and an RXI lens as the Secondary Optical Element (SOE). This architecture manifests 4-fold configuration for performing Köhler integration (4 array units), as well. The RXI lenses are well-known nonimaging devices, but their application as SOE is novel. Both XXR and FRXI Köhler HCPV concentrators are academic examples of very high concentration (more than 2,000x meanwhile conventional systems nowadays have up to 1,000x) prepared for the near future N-junction (N>3) solar cells. In order to have efficient and cost-effective terrestrial CPV systems, those cells will probably require higher concentrations and high spectral irradiance uniformity. Both concentrators are designed by maximizing merit functions: the optical efficiency, concentration-acceptance angle (CAP) and cell-irradiance uniformity free from chromatic aberrations (Köhler integration). Chapter 3 presents the spectrum splitting architecture based on a HCPV module with high concentration (500x) and high acceptance angle (>1º). This module aims to reduce both sources of losses of the actual commercial triple-junction (3J) solar cells with more efficient use of the solar spectrum and with recovering the light reflected from the 3J cells’ grid lines and semiconductor surface. The solar spectrum is used more efficiently due to the combination of a high efficiency 3J concentration cell (GaInP/GaInAs/Ge) and external Back-Point-Contact (BPC) concentration silicon (Si) cell. By employing external confinement techniques, the 3J cell’s reflections are recovered in order to be re-absorbed by the cell. In the proposed concentrator architecture, the 3J cell operates at its optimized current gain (at geometrical concentration of 500x), while the Si cell works near its optimum, as well (135x). The spectrum splitting module consists of a flat Fresnel lens (as the POE), and a free-form RXI-type concentrator with a band-pass filter embedded in it (as the SOE), both POE and SOE performing Köhler integration to produce light homogenization. The band-pass filter sends the IR photons in the 900-1,150nm band to the Si cell. There are several practical aspects of presented module architecture that help reducing the added complexity of the beam splitting systems: the filter and secondary are forming a single solid piece, both cells are coplanar so the heat management and wiring is simplified, etc. Two proof-of-concept prototypes are assembled and tested in order to prove filter manufacturability and performance, as well as the potential of external light recycling technique. Obtained measurement results agree quite well with models and simulations, and show an opened path to manufacturing of the Fresnel RXI-type secondary concentrator with spectrum splitting strategy. Two free-form solid V-groove collimators are presented in Chapter 4. Both free-form collimators are originally designed with the SMS3D method. The second mirrored optically active surface is converted in a grooved surface a posteriori. Initial two mirror (XX) design is presented as a proof-of-concept. Second, RXI free-form design is comparable with existing RXI collimators as it is a highly compact and a highly efficient design. It performs very good color mixing of the RGGB LED sources placed off-axis like in conventional RGB LEDs. Collimators described here improve color mixing property of the prior art rotationally symmetric no-aplanatic RXI devices, and the efficiency of the aplanatic ones, accomplishing both good collimation and good color mixing. Free-form V-groove collimators enhance the no-aplanatic device's blending capabilities by adding aplanatic features to its symmetric counterpart with no loss in efficiency. Big advantage of the RXI design is its potentially lower manufacturing cost, since the process of metallization may be avoided. Although some components are very complicated for shaping, the manufacturing costs are relatively insensitive to the complexity of the mold especially in the case of mass production (such as plastic injection), as the cost of the mold is spread in many parts. Finally, last two sections are conclusions and future lines of investigation.
Resumo:
Esta tesis considera dos tipos de aplicaciones del diseño óptico: óptica formadora de imagen por un lado, y óptica anidólica (nonimaging) o no formadora de imagen, por otro. Las ópticas formadoras de imagen tienen como objetivo la obtención de imágenes de puntos del objeto en el plano de la imagen. Por su parte, la óptica anidólica, surgida del desarrollo de aplicaciones de concentración e iluminación, se centra en la transferencia de energía en forma de luz de forma eficiente. En general, son preferibles los diseños ópticos que den como resultado sistemas compactos, para ambos tipos de ópticas (formadora de imagen y anidólica). En el caso de los sistemas anidólicos, una óptica compacta permite tener costes de producción reducidos. Hay dos razones: (1) una óptica compacta presenta volúmenes reducidos, lo que significa que se necesita menos material para la producción en masa; (2) una óptica compacta es pequeña y ligera, lo que ahorra costes en el transporte. Para los sistemas ópticos de formación de imagen, además de las ventajas anteriores, una óptica compacta aumenta la portabilidad de los dispositivos, que es una gran ventaja en tecnologías de visualización portátiles, tales como cascos de realidad virtual (HMD del inglés Head Mounted Display). Esta tesis se centra por tanto en nuevos enfoques de diseño de sistemas ópticos compactos para aplicaciones tanto de formación de imagen, como anidólicas. Los colimadores son uno de los diseños clásicos dentro la óptica anidólica, y se pueden utilizar en aplicaciones fotovoltaicas y de iluminación. Hay varios enfoques a la hora de diseñar estos colimadores. Los diseños convencionales tienen una relación de aspecto mayor que 0.5. Con el fin de reducir la altura del colimador manteniendo el área de iluminación, esta tesis presenta un diseño de un colimador multicanal. En óptica formadora de imagen, las superficies asféricas y las superficies sin simetría de revolución (o freeform) son de gran utilidad de cara al control de las aberraciones de la imagen y para reducir el número y tamaño de los elementos ópticos. Debido al rápido desarrollo de sistemas de computación digital, los trazados de rayos se pueden realizar de forma rápida y sencilla para evaluar el rendimiento del sistema óptico analizado. Esto ha llevado a los diseños ópticos modernos a ser generados mediante el uso de diferentes técnicas de optimización multi-paramétricas. Estas técnicas requieren un buen diseño inicial como punto de partida para el diseño final, que será obtenido tras un proceso de optimización. Este proceso precisa un método de diseño directo para superficies asféricas y freeform que den como resultado un diseño cercano al óptimo. Un método de diseño basado en ecuaciones diferenciales se presenta en esta tesis para obtener un diseño óptico formado por una superficie freeform y dos superficies asféricas. Esta tesis consta de cinco capítulos. En Capítulo 1, se presentan los conceptos básicos de la óptica formadora de imagen y de la óptica anidólica, y se introducen las técnicas clásicas del diseño de las mismas. El Capítulo 2 describe el diseño de un colimador ultra-compacto. La relación de aspecto ultra-baja de este colimador se logra mediante el uso de una estructura multicanal. Se presentará su procedimiento de diseño, así como un prototipo fabricado y la caracterización del mismo. El Capítulo 3 describe los conceptos principales de la optimización de los sistemas ópticos: función de mérito y método de mínimos cuadrados amortiguados. La importancia de un buen punto de partida se demuestra mediante la presentación de un mismo ejemplo visto a través de diferentes enfoques de diseño. El método de las ecuaciones diferenciales se presenta como una herramienta ideal para obtener un buen punto de partida para la solución final. Además, diferentes técnicas de interpolación y representación de superficies asféricas y freeform se presentan para el procedimiento de optimización. El Capítulo 4 describe la aplicación del método de las ecuaciones diferenciales para un diseño de un sistema óptico de una sola superficie freeform. Algunos conceptos básicos de geometría diferencial son presentados para una mejor comprensión de la derivación de las ecuaciones diferenciales parciales. También se presenta un procedimiento de solución numérica. La condición inicial está elegida como un grado de libertad adicional para controlar la superficie donde se forma la imagen. Basado en este enfoque, un diseño anastigmático se puede obtener fácilmente y se utiliza como punto de partida para un ejemplo de diseño de un HMD con una única superficie reflectante. Después de la optimización, dicho diseño muestra mejor rendimiento. El Capítulo 5 describe el método de las ecuaciones diferenciales ampliado para diseños de dos superficies asféricas. Para diseños ópticos de una superficie, ni la superficie de imagen ni la correspondencia entre puntos del objeto y la imagen pueden ser prescritas. Con esta superficie adicional, la superficie de la imagen se puede prescribir. Esto conduce a un conjunto de tres ecuaciones diferenciales ordinarias implícitas. La solución numérica se puede obtener a través de cualquier software de cálculo numérico. Dicho procedimiento también se explica en este capítulo. Este método de diseño da como resultado una lente anastigmática, que se comparará con una lente aplanática. El diseño anastigmático converge mucho más rápido en la optimización y la solución final muestra un mejor rendimiento. ABSTRACT We will consider optical design from two points of view: imaging optics and nonimaging optics. Imaging optics focuses on the imaging of the points of the object. Nonimaging optics arose from the development of concentrators and illuminators, focuses on the transfer of light energy, and has wide applications in illumination and concentration photovoltaics. In general, compact optical systems are necessary for both imaging and nonimaging designs. For nonimaging optical systems, compact optics use to be important for reducing cost. The reasons are twofold: (1) compact optics is small in volume, which means less material is needed for mass-production; (2) compact optics is small in size and light in weight, which saves cost in transportation. For imaging optical systems, in addition to the above advantages, compact optics increases portability of devices as well, which contributes a lot to wearable display technologies such as Head Mounted Displays (HMD). This thesis presents novel design approaches of compact optical systems for both imaging and nonimaging applications. Collimator is a typical application of nonimaging optics in illumination, and can be used in concentration photovoltaics as well due to the reciprocity of light. There are several approaches for collimator designs. In general, all of these approaches have an aperture diameter to collimator height not greater than 2. In order to reduce the height of the collimator while maintaining the illumination area, a multichannel design is presented in this thesis. In imaging optics, aspheric and freeform surfaces are useful in controlling image aberrations and reducing the number and size of optical elements. Due to the rapid development of digital computing systems, ray tracing can be easily performed to evaluate the performance of optical system. This has led to the modern optical designs created by using different multi-parametric optimization techniques. These techniques require a good initial design to be a starting point so that the final design after optimization procedure can reach the optimum solution. This requires a direct design method for aspheric and freeform surface close to the optimum. A differential equation based design method is presented in this thesis to obtain single freeform and double aspheric surfaces. The thesis comprises of five chapters. In Chapter 1, basic concepts of imaging and nonimaging optics are presented and typical design techniques are introduced. Readers can obtain an understanding for the following chapters. Chapter 2 describes the design of ultra-compact collimator. The ultra-low aspect ratio of this collimator is achieved by using a multichannel structure. Its design procedure is presented together with a prototype and its evaluation. The ultra-compactness of the device has been approved. Chapter 3 describes the main concepts of optimizing optical systems: merit function and Damped Least-Squares method. The importance of a good starting point is demonstrated by presenting an example through different design approaches. The differential equation method is introduced as an ideal tool to obtain a good starting point for the final solution. Additionally, different interpolation and representation techniques for aspheric and freeform surface are presented for optimization procedure. Chapter 4 describes the application of differential equation method in the design of single freeform surface optical system. Basic concepts of differential geometry are presented for understanding the derivation of partial differential equations. A numerical solution procedure is also presented. The initial condition is chosen as an additional freedom to control the image surface. Based on this approach, anastigmatic designs can be readily obtained and is used as starting point for a single reflective surface HMD design example. After optimization, the evaluation shows better MTF. Chapter 5 describes the differential equation method extended to double aspheric surface designs. For single optical surface designs, neither image surface nor the mapping from object to image can be prescribed. With one more surface added, the image surface can be prescribed. This leads to a set of three implicit ordinary differential equations. Numerical solution can be obtained by MATLAB and its procedure is also explained. An anastigmatic lens is derived from this design method and compared with an aplanatic lens. The anastigmatic design converges much faster in optimization and the final solution shows better performance.
Resumo:
Los sistemas empotrados han sido concebidos tradicionalmente como sistemas de procesamiento específicos que realizan una tarea fija durante toda su vida útil. Para cumplir con requisitos estrictos de coste, tamaño y peso, el equipo de diseño debe optimizar su funcionamiento para condiciones muy específicas. Sin embargo, la demanda de mayor versatilidad, un funcionamiento más inteligente y, en definitiva, una mayor capacidad de procesamiento comenzaron a chocar con estas limitaciones, agravado por la incertidumbre asociada a entornos de operación cada vez más dinámicos donde comenzaban a ser desplegados progresivamente. Esto trajo como resultado una necesidad creciente de que los sistemas pudieran responder por si solos a eventos inesperados en tiempo diseño tales como: cambios en las características de los datos de entrada y el entorno del sistema en general; cambios en la propia plataforma de cómputo, por ejemplo debido a fallos o defectos de fabricación; y cambios en las propias especificaciones funcionales causados por unos objetivos del sistema dinámicos y cambiantes. Como consecuencia, la complejidad del sistema aumenta, pero a cambio se habilita progresivamente una capacidad de adaptación autónoma sin intervención humana a lo largo de la vida útil, permitiendo que tomen sus propias decisiones en tiempo de ejecución. Éstos sistemas se conocen, en general, como sistemas auto-adaptativos y tienen, entre otras características, las de auto-configuración, auto-optimización y auto-reparación. Típicamente, la parte soft de un sistema es mayoritariamente la única utilizada para proporcionar algunas capacidades de adaptación a un sistema. Sin embargo, la proporción rendimiento/potencia en dispositivos software como microprocesadores en muchas ocasiones no es adecuada para sistemas empotrados. En este escenario, el aumento resultante en la complejidad de las aplicaciones está siendo abordado parcialmente mediante un aumento en la complejidad de los dispositivos en forma de multi/many-cores; pero desafortunadamente, esto hace que el consumo de potencia también aumente. Además, la mejora en metodologías de diseño no ha sido acorde como para poder utilizar toda la capacidad de cómputo disponible proporcionada por los núcleos. Por todo ello, no se están satisfaciendo adecuadamente las demandas de cómputo que imponen las nuevas aplicaciones. La solución tradicional para mejorar la proporción rendimiento/potencia ha sido el cambio a unas especificaciones hardware, principalmente usando ASICs. Sin embargo, los costes de un ASIC son altamente prohibitivos excepto en algunos casos de producción en masa y además la naturaleza estática de su estructura complica la solución a las necesidades de adaptación. Los avances en tecnologías de fabricación han hecho que la FPGA, una vez lenta y pequeña, usada como glue logic en sistemas mayores, haya crecido hasta convertirse en un dispositivo de cómputo reconfigurable de gran potencia, con una cantidad enorme de recursos lógicos computacionales y cores hardware empotrados de procesamiento de señal y de propósito general. Sus capacidades de reconfiguración han permitido combinar la flexibilidad propia del software con el rendimiento del procesamiento en hardware, lo que tiene la potencialidad de provocar un cambio de paradigma en arquitectura de computadores, pues el hardware no puede ya ser considerado más como estático. El motivo es que como en el caso de las FPGAs basadas en tecnología SRAM, la reconfiguración parcial dinámica (DPR, Dynamic Partial Reconfiguration) es posible. Esto significa que se puede modificar (reconfigurar) un subconjunto de los recursos computacionales en tiempo de ejecución mientras el resto permanecen activos. Además, este proceso de reconfiguración puede ser ejecutado internamente por el propio dispositivo. El avance tecnológico en dispositivos hardware reconfigurables se encuentra recogido bajo el campo conocido como Computación Reconfigurable (RC, Reconfigurable Computing). Uno de los campos de aplicación más exóticos y menos convencionales que ha posibilitado la computación reconfigurable es el conocido como Hardware Evolutivo (EHW, Evolvable Hardware), en el cual se encuentra enmarcada esta tesis. La idea principal del concepto consiste en convertir hardware que es adaptable a través de reconfiguración en una entidad evolutiva sujeta a las fuerzas de un proceso evolutivo inspirado en el de las especies biológicas naturales, que guía la dirección del cambio. Es una aplicación más del campo de la Computación Evolutiva (EC, Evolutionary Computation), que comprende una serie de algoritmos de optimización global conocidos como Algoritmos Evolutivos (EA, Evolutionary Algorithms), y que son considerados como algoritmos universales de resolución de problemas. En analogía al proceso biológico de la evolución, en el hardware evolutivo el sujeto de la evolución es una población de circuitos que intenta adaptarse a su entorno mediante una adecuación progresiva generación tras generación. Los individuos pasan a ser configuraciones de circuitos en forma de bitstreams caracterizados por descripciones de circuitos reconfigurables. Seleccionando aquellos que se comportan mejor, es decir, que tienen una mejor adecuación (o fitness) después de ser evaluados, y usándolos como padres de la siguiente generación, el algoritmo evolutivo crea una nueva población hija usando operadores genéticos como la mutación y la recombinación. Según se van sucediendo generaciones, se espera que la población en conjunto se aproxime a la solución óptima al problema de encontrar una configuración del circuito adecuada que satisfaga las especificaciones. El estado de la tecnología de reconfiguración después de que la familia de FPGAs XC6200 de Xilinx fuera retirada y reemplazada por las familias Virtex a finales de los 90, supuso un gran obstáculo para el avance en hardware evolutivo; formatos de bitstream cerrados (no conocidos públicamente); dependencia de herramientas del fabricante con soporte limitado de DPR; una velocidad de reconfiguración lenta; y el hecho de que modificaciones aleatorias del bitstream pudieran resultar peligrosas para la integridad del dispositivo, son algunas de estas razones. Sin embargo, una propuesta a principios de los años 2000 permitió mantener la investigación en el campo mientras la tecnología de DPR continuaba madurando, el Circuito Virtual Reconfigurable (VRC, Virtual Reconfigurable Circuit). En esencia, un VRC en una FPGA es una capa virtual que actúa como un circuito reconfigurable de aplicación específica sobre la estructura nativa de la FPGA que reduce la complejidad del proceso reconfiguración y aumenta su velocidad (comparada con la reconfiguración nativa). Es un array de nodos computacionales especificados usando descripciones HDL estándar que define recursos reconfigurables ad-hoc: multiplexores de rutado y un conjunto de elementos de procesamiento configurables, cada uno de los cuales tiene implementadas todas las funciones requeridas, que pueden seleccionarse a través de multiplexores tal y como ocurre en una ALU de un microprocesador. Un registro grande actúa como memoria de configuración, por lo que la reconfiguración del VRC es muy rápida ya que tan sólo implica la escritura de este registro, el cual controla las señales de selección del conjunto de multiplexores. Sin embargo, esta capa virtual provoca: un incremento de área debido a la implementación simultánea de cada función en cada nodo del array más los multiplexores y un aumento del retardo debido a los multiplexores, reduciendo la frecuencia de funcionamiento máxima. La naturaleza del hardware evolutivo, capaz de optimizar su propio comportamiento computacional, le convierten en un buen candidato para avanzar en la investigación sobre sistemas auto-adaptativos. Combinar un sustrato de cómputo auto-reconfigurable capaz de ser modificado dinámicamente en tiempo de ejecución con un algoritmo empotrado que proporcione una dirección de cambio, puede ayudar a satisfacer los requisitos de adaptación autónoma de sistemas empotrados basados en FPGA. La propuesta principal de esta tesis está por tanto dirigida a contribuir a la auto-adaptación del hardware de procesamiento de sistemas empotrados basados en FPGA mediante hardware evolutivo. Esto se ha abordado considerando que el comportamiento computacional de un sistema puede ser modificado cambiando cualquiera de sus dos partes constitutivas: una estructura hard subyacente y un conjunto de parámetros soft. De esta distinción, se derivan dos lineas de trabajo. Por un lado, auto-adaptación paramétrica, y por otro auto-adaptación estructural. El objetivo perseguido en el caso de la auto-adaptación paramétrica es la implementación de técnicas de optimización evolutiva complejas en sistemas empotrados con recursos limitados para la adaptación paramétrica online de circuitos de procesamiento de señal. La aplicación seleccionada como prueba de concepto es la optimización para tipos muy específicos de imágenes de los coeficientes de los filtros de transformadas wavelet discretas (DWT, DiscreteWavelet Transform), orientada a la compresión de imágenes. Por tanto, el objetivo requerido de la evolución es una compresión adaptativa y más eficiente comparada con los procedimientos estándar. El principal reto radica en reducir la necesidad de recursos de supercomputación para el proceso de optimización propuesto en trabajos previos, de modo que se adecúe para la ejecución en sistemas empotrados. En cuanto a la auto-adaptación estructural, el objetivo de la tesis es la implementación de circuitos auto-adaptativos en sistemas evolutivos basados en FPGA mediante un uso eficiente de sus capacidades de reconfiguración nativas. En este caso, la prueba de concepto es la evolución de tareas de procesamiento de imagen tales como el filtrado de tipos desconocidos y cambiantes de ruido y la detección de bordes en la imagen. En general, el objetivo es la evolución en tiempo de ejecución de tareas de procesamiento de imagen desconocidas en tiempo de diseño (dentro de un cierto grado de complejidad). En este caso, el objetivo de la propuesta es la incorporación de DPR en EHW para evolucionar la arquitectura de un array sistólico adaptable mediante reconfiguración cuya capacidad de evolución no había sido estudiada previamente. Para conseguir los dos objetivos mencionados, esta tesis propone originalmente una plataforma evolutiva que integra un motor de adaptación (AE, Adaptation Engine), un motor de reconfiguración (RE, Reconfiguration Engine) y un motor computacional (CE, Computing Engine) adaptable. El el caso de adaptación paramétrica, la plataforma propuesta está caracterizada por: • un CE caracterizado por un núcleo de procesamiento hardware de DWT adaptable mediante registros reconfigurables que contienen los coeficientes de los filtros wavelet • un algoritmo evolutivo como AE que busca filtros wavelet candidatos a través de un proceso de optimización paramétrica desarrollado específicamente para sistemas caracterizados por recursos de procesamiento limitados • un nuevo operador de mutación simplificado para el algoritmo evolutivo utilizado, que junto con un mecanismo de evaluación rápida de filtros wavelet candidatos derivado de la literatura actual, asegura la viabilidad de la búsqueda evolutiva asociada a la adaptación de wavelets. En el caso de adaptación estructural, la plataforma propuesta toma la forma de: • un CE basado en una plantilla de array sistólico reconfigurable de 2 dimensiones compuesto de nodos de procesamiento reconfigurables • un algoritmo evolutivo como AE que busca configuraciones candidatas del array usando un conjunto de funcionalidades de procesamiento para los nodos disponible en una biblioteca accesible en tiempo de ejecución • un RE hardware que explota la capacidad de reconfiguración nativa de las FPGAs haciendo un uso eficiente de los recursos reconfigurables del dispositivo para cambiar el comportamiento del CE en tiempo de ejecución • una biblioteca de elementos de procesamiento reconfigurables caracterizada por bitstreams parciales independientes de la posición, usados como el conjunto de configuraciones disponibles para los nodos de procesamiento del array Las contribuciones principales de esta tesis se pueden resumir en la siguiente lista: • Una plataforma evolutiva basada en FPGA para la auto-adaptación paramétrica y estructural de sistemas empotrados compuesta por un motor computacional (CE), un motor de adaptación (AE) evolutivo y un motor de reconfiguración (RE). Esta plataforma se ha desarrollado y particularizado para los casos de auto-adaptación paramétrica y estructural. • En cuanto a la auto-adaptación paramétrica, las contribuciones principales son: – Un motor computacional adaptable mediante registros que permite la adaptación paramétrica de los coeficientes de una implementación hardware adaptativa de un núcleo de DWT. – Un motor de adaptación basado en un algoritmo evolutivo desarrollado específicamente para optimización numérica, aplicada a los coeficientes de filtros wavelet en sistemas empotrados con recursos limitados. – Un núcleo IP de DWT auto-adaptativo en tiempo de ejecución para sistemas empotrados que permite la optimización online del rendimiento de la transformada para compresión de imágenes en entornos específicos de despliegue, caracterizados por tipos diferentes de señal de entrada. – Un modelo software y una implementación hardware de una herramienta para la construcción evolutiva automática de transformadas wavelet específicas. • Por último, en cuanto a la auto-adaptación estructural, las contribuciones principales son: – Un motor computacional adaptable mediante reconfiguración nativa de FPGAs caracterizado por una plantilla de array sistólico en dos dimensiones de nodos de procesamiento reconfigurables. Es posible mapear diferentes tareas de cómputo en el array usando una biblioteca de elementos sencillos de procesamiento reconfigurables. – Definición de una biblioteca de elementos de procesamiento apropiada para la síntesis autónoma en tiempo de ejecución de diferentes tareas de procesamiento de imagen. – Incorporación eficiente de la reconfiguración parcial dinámica (DPR) en sistemas de hardware evolutivo, superando los principales inconvenientes de propuestas previas como los circuitos reconfigurables virtuales (VRCs). En este trabajo también se comparan originalmente los detalles de implementación de ambas propuestas. – Una plataforma tolerante a fallos, auto-curativa, que permite la recuperación funcional online en entornos peligrosos. La plataforma ha sido caracterizada desde una perspectiva de tolerancia a fallos: se proponen modelos de fallo a nivel de CLB y de elemento de procesamiento, y usando el motor de reconfiguración, se hace un análisis sistemático de fallos para un fallo en cada elemento de procesamiento y para dos fallos acumulados. – Una plataforma con calidad de filtrado dinámica que permite la adaptación online a tipos de ruido diferentes y diferentes comportamientos computacionales teniendo en cuenta los recursos de procesamiento disponibles. Por un lado, se evolucionan filtros con comportamientos no destructivos, que permiten esquemas de filtrado en cascada escalables; y por otro, también se evolucionan filtros escalables teniendo en cuenta requisitos computacionales de filtrado cambiantes dinámicamente. Este documento está organizado en cuatro partes y nueve capítulos. La primera parte contiene el capítulo 1, una introducción y motivación sobre este trabajo de tesis. A continuación, el marco de referencia en el que se enmarca esta tesis se analiza en la segunda parte: el capítulo 2 contiene una introducción a los conceptos de auto-adaptación y computación autonómica (autonomic computing) como un campo de investigación más general que el muy específico de este trabajo; el capítulo 3 introduce la computación evolutiva como la técnica para dirigir la adaptación; el capítulo 4 analiza las plataformas de computación reconfigurables como la tecnología para albergar hardware auto-adaptativo; y finalmente, el capítulo 5 define, clasifica y hace un sondeo del campo del hardware evolutivo. Seguidamente, la tercera parte de este trabajo contiene la propuesta, desarrollo y resultados obtenidos: mientras que el capítulo 6 contiene una declaración de los objetivos de la tesis y la descripción de la propuesta en su conjunto, los capítulos 7 y 8 abordan la auto-adaptación paramétrica y estructural, respectivamente. Finalmente, el capítulo 9 de la parte 4 concluye el trabajo y describe caminos de investigación futuros. ABSTRACT Embedded systems have traditionally been conceived to be specific-purpose computers with one, fixed computational task for their whole lifetime. Stringent requirements in terms of cost, size and weight forced designers to highly optimise their operation for very specific conditions. However, demands for versatility, more intelligent behaviour and, in summary, an increased computing capability began to clash with these limitations, intensified by the uncertainty associated to the more dynamic operating environments where they were progressively being deployed. This brought as a result an increasing need for systems to respond by themselves to unexpected events at design time, such as: changes in input data characteristics and system environment in general; changes in the computing platform itself, e.g., due to faults and fabrication defects; and changes in functional specifications caused by dynamically changing system objectives. As a consequence, systems complexity is increasing, but in turn, autonomous lifetime adaptation without human intervention is being progressively enabled, allowing them to take their own decisions at run-time. This type of systems is known, in general, as selfadaptive, and are able, among others, of self-configuration, self-optimisation and self-repair. Traditionally, the soft part of a system has mostly been so far the only place to provide systems with some degree of adaptation capabilities. However, the performance to power ratios of software driven devices like microprocessors are not adequate for embedded systems in many situations. In this scenario, the resulting rise in applications complexity is being partly addressed by rising devices complexity in the form of multi and many core devices; but sadly, this keeps on increasing power consumption. Besides, design methodologies have not been improved accordingly to completely leverage the available computational power from all these cores. Altogether, these factors make that the computing demands new applications pose are not being wholly satisfied. The traditional solution to improve performance to power ratios has been the switch to hardware driven specifications, mainly using ASICs. However, their costs are highly prohibitive except for some mass production cases and besidesthe static nature of its structure complicates the solution to the adaptation needs. The advancements in fabrication technologies have made that the once slow, small FPGA used as glue logic in bigger systems, had grown to be a very powerful, reconfigurable computing device with a vast amount of computational logic resources and embedded, hardened signal and general purpose processing cores. Its reconfiguration capabilities have enabled software-like flexibility to be combined with hardware-like computing performance, which has the potential to cause a paradigm shift in computer architecture since hardware cannot be considered as static anymore. This is so, since, as is the case with SRAMbased FPGAs, Dynamic Partial Reconfiguration (DPR) is possible. This means that subsets of the FPGA computational resources can now be changed (reconfigured) at run-time while the rest remains active. Besides, this reconfiguration process can be triggered internally by the device itself. This technological boost in reconfigurable hardware devices is actually covered under the field known as Reconfigurable Computing. One of the most exotic fields of application that Reconfigurable Computing has enabled is the known as Evolvable Hardware (EHW), in which this dissertation is framed. The main idea behind the concept is turning hardware that is adaptable through reconfiguration into an evolvable entity subject to the forces of an evolutionary process, inspired by that of natural, biological species, that guides the direction of change. It is yet another application of the field of Evolutionary Computation (EC), which comprises a set of global optimisation algorithms known as Evolutionary Algorithms (EAs), considered as universal problem solvers. In analogy to the biological process of evolution, in EHW the subject of evolution is a population of circuits that tries to get adapted to its surrounding environment by progressively getting better fitted to it generation after generation. Individuals become circuit configurations representing bitstreams that feature reconfigurable circuit descriptions. By selecting those that behave better, i.e., with a higher fitness value after being evaluated, and using them as parents of the following generation, the EA creates a new offspring population by using so called genetic operators like mutation and recombination. As generations succeed one another, the whole population is expected to approach to the optimum solution to the problem of finding an adequate circuit configuration that fulfils system objectives. The state of reconfiguration technology after Xilinx XC6200 FPGA family was discontinued and replaced by Virtex families in the late 90s, was a major obstacle for advancements in EHW; closed (non publicly known) bitstream formats; dependence on manufacturer tools with highly limiting support of DPR; slow speed of reconfiguration; and random bitstream modifications being potentially hazardous for device integrity, are some of these reasons. However, a proposal in the first 2000s allowed to keep investigating in this field while DPR technology kept maturing, the Virtual Reconfigurable Circuit (VRC). In essence, a VRC in an FPGA is a virtual layer acting as an application specific reconfigurable circuit on top of an FPGA fabric that reduces the complexity of the reconfiguration process and increases its speed (compared to native reconfiguration). It is an array of computational nodes specified using standard HDL descriptions that define ad-hoc reconfigurable resources; routing multiplexers and a set of configurable processing elements, each one containing all the required functions, which are selectable through functionality multiplexers as in microprocessor ALUs. A large register acts as configuration memory, so VRC reconfiguration is very fast given it only involves writing this register, which drives the selection signals of the set of multiplexers. However, large overheads are introduced by this virtual layer; an area overhead due to the simultaneous implementation of every function in every node of the array plus the multiplexers, and a delay overhead due to the multiplexers, which also reduces maximum frequency of operation. The very nature of Evolvable Hardware, able to optimise its own computational behaviour, makes it a good candidate to advance research in self-adaptive systems. Combining a selfreconfigurable computing substrate able to be dynamically changed at run-time with an embedded algorithm that provides a direction for change, can help fulfilling requirements for autonomous lifetime adaptation of FPGA-based embedded systems. The main proposal of this thesis is hence directed to contribute to autonomous self-adaptation of the underlying computational hardware of FPGA-based embedded systems by means of Evolvable Hardware. This is tackled by considering that the computational behaviour of a system can be modified by changing any of its two constituent parts: an underlying hard structure and a set of soft parameters. Two main lines of work derive from this distinction. On one side, parametric self-adaptation and, on the other side, structural self-adaptation. The goal pursued in the case of parametric self-adaptation is the implementation of complex evolutionary optimisation techniques in resource constrained embedded systems for online parameter adaptation of signal processing circuits. The application selected as proof of concept is the optimisation of Discrete Wavelet Transforms (DWT) filters coefficients for very specific types of images, oriented to image compression. Hence, adaptive and improved compression efficiency, as compared to standard techniques, is the required goal of evolution. The main quest lies in reducing the supercomputing resources reported in previous works for the optimisation process in order to make it suitable for embedded systems. Regarding structural self-adaptation, the thesis goal is the implementation of self-adaptive circuits in FPGA-based evolvable systems through an efficient use of native reconfiguration capabilities. In this case, evolution of image processing tasks such as filtering of unknown and changing types of noise and edge detection are the selected proofs of concept. In general, evolving unknown image processing behaviours (within a certain complexity range) at design time is the required goal. In this case, the mission of the proposal is the incorporation of DPR in EHW to evolve a systolic array architecture adaptable through reconfiguration whose evolvability had not been previously checked. In order to achieve the two stated goals, this thesis originally proposes an evolvable platform that integrates an Adaptation Engine (AE), a Reconfiguration Engine (RE) and an adaptable Computing Engine (CE). In the case of parametric adaptation, the proposed platform is characterised by: • a CE featuring a DWT hardware processing core adaptable through reconfigurable registers that holds wavelet filters coefficients • an evolutionary algorithm as AE that searches for candidate wavelet filters through a parametric optimisation process specifically developed for systems featured by scarce computing resources • a new, simplified mutation operator for the selected EA, that together with a fast evaluation mechanism of candidate wavelet filters derived from existing literature, assures the feasibility of the evolutionary search involved in wavelets adaptation In the case of structural adaptation, the platform proposal takes the form of: • a CE based on a reconfigurable 2D systolic array template composed of reconfigurable processing nodes • an evolutionary algorithm as AE that searches for candidate configurations of the array using a set of computational functionalities for the nodes available in a run time accessible library • a hardware RE that exploits native DPR capabilities of FPGAs and makes an efficient use of the available reconfigurable resources of the device to change the behaviour of the CE at run time • a library of reconfigurable processing elements featured by position-independent partial bitstreams used as the set of available configurations for the processing nodes of the array Main contributions of this thesis can be summarised in the following list. • An FPGA-based evolvable platform for parametric and structural self-adaptation of embedded systems composed of a Computing Engine, an evolutionary Adaptation Engine and a Reconfiguration Engine. This platform is further developed and tailored for both parametric and structural self-adaptation. • Regarding parametric self-adaptation, main contributions are: – A CE adaptable through reconfigurable registers that enables parametric adaptation of the coefficients of an adaptive hardware implementation of a DWT core. – An AE based on an Evolutionary Algorithm specifically developed for numerical optimisation applied to wavelet filter coefficients in resource constrained embedded systems. – A run-time self-adaptive DWT IP core for embedded systems that allows for online optimisation of transform performance for image compression for specific deployment environments characterised by different types of input signals. – A software model and hardware implementation of a tool for the automatic, evolutionary construction of custom wavelet transforms. • Lastly, regarding structural self-adaptation, main contributions are: – A CE adaptable through native FPGA fabric reconfiguration featured by a two dimensional systolic array template of reconfigurable processing nodes. Different processing behaviours can be automatically mapped in the array by using a library of simple reconfigurable processing elements. – Definition of a library of such processing elements suited for autonomous runtime synthesis of different image processing tasks. – Efficient incorporation of DPR in EHW systems, overcoming main drawbacks from the previous approach of virtual reconfigurable circuits. Implementation details for both approaches are also originally compared in this work. – A fault tolerant, self-healing platform that enables online functional recovery in hazardous environments. The platform has been characterised from a fault tolerance perspective: fault models at FPGA CLB level and processing elements level are proposed, and using the RE, a systematic fault analysis for one fault in every processing element and for two accumulated faults is done. – A dynamic filtering quality platform that permits on-line adaptation to different types of noise and different computing behaviours considering the available computing resources. On one side, non-destructive filters are evolved, enabling scalable cascaded filtering schemes; and on the other, size-scalable filters are also evolved considering dynamically changing computational filtering requirements. This dissertation is organized in four parts and nine chapters. First part contains chapter 1, the introduction to and motivation of this PhD work. Following, the reference framework in which this dissertation is framed is analysed in the second part: chapter 2 features an introduction to the notions of self-adaptation and autonomic computing as a more general research field to the very specific one of this work; chapter 3 introduces evolutionary computation as the technique to drive adaptation; chapter 4 analyses platforms for reconfigurable computing as the technology to hold self-adaptive hardware; and finally chapter 5 defines, classifies and surveys the field of Evolvable Hardware. Third part of the work follows, which contains the proposal, development and results obtained: while chapter 6 contains an statement of the thesis goals and the description of the proposal as a whole, chapters 7 and 8 address parametric and structural self-adaptation, respectively. Finally, chapter 9 in part 4 concludes the work and describes future research paths.
Resumo:
Existe en el panorama edificado un patrimonio construido que se reconoce como Centro Comercial. Un conjunto entendido, en sentido genérico, como familia arquitectónica que tiene características propias y específicas que la identifican. El objeto de la presente tesis doctoral consiste en argumentar que este conjunto constituye un nuevo tipo en el panorama de las tipologías arquitectónicas. Un tipo con entidad propia, que se conecta a una forma diferente de entender la idea de modelo. Un concepto que va más allá de la consideración tradicional del término. Modelo virtual. Este tipo, que surge de una estructura teórica que hemos denominado teoría tipológica, se constituye en una herramienta más para el estudio y el desarrollo proyectual de los espacios arquitectónicos, tanto del propio Centro Comercial como del conjunto de la disciplina arquitectónica, como referencia legítima. El presente trabajo de tesis se inicia con un bloque introductorio denominado Método. Definimos en él una metodología que hemos llamado emocional. Trata de la oportunidad de la tesis. Del porqué de un título que recoge la palabra ignorada. Del interés que suscita el asunto en el contexto del momento presente. Oportunidad e interés en base a una vida profesional dedicada al mundo del Centro Comercial y a la importancia del patrimonio elegido como objeto de estudio. También ha sido un aliciente detectar como las planificaciones del territorio y de los ámbitos de las relaciones colectivas no han sido capaces de integrar un resultado satisfactorio. Quizás por no considerar la complejidad de sus muchas facetas. En consecuencia, el texto busca la esencia del Centro Comercial como soporte para la crítica de su impacto en los nuevos escenarios de relación que la sociedad y el entorno físico imponen. Ámbitos donde los mecanismos históricos del asociacionismo tradicional han dado paso a otros, como el Centro Comercial, de exaltación del individualismo, pero demandados por una sociedad que se identifica con ellos. Espacios que, con Galbraith, existen por de la perversidad intrínseca del binomio consumo-producción que inducen la perplejidad. Ésta pasa a formar parte de la esencia del nuevo espacio comercial, como quedó de manifiesto en el Congreso de Minnesota de 1997, sobre el Centro Comercial. Una sociedad que ha girado hacia el logro material en términos de culto, ocasionando creciente valor significante del consumo. Razón última de la humanidad al decir de Rem Koolhaas. Culto que desemboca en la urgencia de alcanzar niveles de estatus y de identificación con el grupo. Dos parámetros que marcan la relación con el otro. Relación de comparación que excita la necesidad de posesión de objetos que llevaban a recrear en el consumidor la ilusión de ser especiales, de no pasar desapercibidos. El producto de consumo, el objeto, se eleva a la consideración de valor social. En el Centro Comercial se venden valores. Marketing de valores. El deseo del individuo, no la necesidad, queda involucrado en el proceso. La oportunidad y el interés de este estudio surgen además para aclarar el significado de un espacio que sirve al consumidor y a su entorno. Un significado que alcanza sentido, entre otros, por la aparición de un nuevo contexto tras la Segunda Guerra Mundial. Suburbanización, automóvil, nivel de vida, un nuevo papel de la mujer. La Era del Consumo. Una era que genera la paradoja de un individuo con autodeterminación y autosuficiencia crecientes, en un mundo cada vez más condicionado y controlado por dinámicas de ofertas mediatizadas e ilimitadas. La arquitectura en este contexto ha de juzgarse por su relación con un hombre contemporáneo que camina hacia una progresiva excepcionalidad. Cerramos la presentación justificando el término ignorada que aparece en el Título de la Tesis. Subrayamos la escasa existencia de estudios estructurados que relacionen Centro Comercial y arquitectura. Realidad que se constata partiendo del libro de Pevsner, Historia de las Tipologías Arquitectónicas, de 1976. Analizamos también la aceptación que el Centro Comercial, valorado en algunos ámbitos como arquitectura populista. Primer Capítulo, los antecedentes. Se propone un recorrido histórico por la arquitectura comercial de todos los tiempos. El Documento busca concretar las características de la arquitectura comercial a lo largo de la historia para determinar relaciones entre ella y el Centro Comercial. Estas correspondencias van a permitir contestar la pregunta retórica que nos hacemos al inicio del Capítulo: ¿Es la arquitectura del Centro Comercial una arquitectura subsidiaria, o tiene personalidad propia independiente de la del mundo comercial? Con Zevi40, queremos dejar constancia que la relación arquitectura-historia es imprescindible en la tarea proyectual. Un análisis novedoso solo es posible desde la búsqueda de unas raíces auténticas. Así mismo, con Guy de Maupassant, estamos convencidos que “La arquitectura, a través de los siglos, ha tenido el privilegio de dar un símbolo a cada una de las épocas, de resumir con un pequeñísimo número de monumentos típicos, el modo de pensar, de soñar de una raza y de una civilización”. Este recorrido se inicia interpretando la arquitectura comercial minoica. Llegaremos, paso a paso, hasta el siglo XX, los grandes itinerarios comerciales y el Centro Comercial. Se descubren una serie de invariantes que permiten comparar y extraer conclusiones. Resulta novedoso constatar que el Centro Comercial nace para dar respuesta al hombre contemporáneo en su afán consumista. También lo es la rápida implantación y evolución del Centro Comercial en un corto periodo de sesenta años frente al ritmo sosegado de otras soluciones comerciales. Novedad es ver como el comercio y sus arquitecturas nacen abiertos, bajo tenderetes y el Centro Comercial se presenta cerrado. Así mismo, las referencias sacras constituyen un elemento de novedad para la reflexión, en un contexto materialista. Y tantas otras. En Minos, la óptica comercial ofrece otra visión de su legendaria cultura. ¿Palacio o plataforma logística?, gestión centralizada del intercambio, ¿vida pública y vida privada? Así, hasta llegar al siglo XIX. Sus las galerías y sus pasajes acristalados concebidos en primera instancia como medida de recomposición urbana. Espacio entendido desde lo público-privado, desde lo interior-exterior, desde el dentro-afuera, desde lo cerrado-abierto. Con los nuevos mercados de abastos, representan una revolución en el ámbito de la funcionalidad, de la máquina, de la gestión moderna y de las relaciones del ciudadano con la ciudad apoyado en base al intercambio de bienes de consumo. El Centro Comercial es heredero de esta transformación. El Gran Almacén, por otra parte, es el reflejo de otra gran revolución. La que va ligada a la producción y comercialización en masa, las comunicaciones, el precio fijo y el aumento del nivel de vida. El Centro Comercial reinterpreta estas situaciones insertándolas en un nuevo modelo de gestión. En el siglo XX, maestro en técnicas de venta, aparece el hipermercado. El Híper, con su carga de pedagogía, se incorpora al esquema orgánico del Centro Comercial. La tienda en si misma constituye la pieza base de dicho puzle orgánico. Es en esta época cuando la tienda empieza su despegue autónomo como arquitectura, aportando su experiencia. Tras ello, llegamos a las grandes rutas comerciales, que proponemos como metáfora del shopping. Cerramos el capítulo concluyendo con Eugenio Ferrer que “si establecemos una relación entre el espacio y el capitalismo, entonces podemos inferir que los espacios del consumo de masas (ECM) son configuraciones nuevas respecto al pasado (...), pero el sistema que lo introduce no lo es del todo”. Segundo Capítulo. Búsqueda de claves que permitan el reconocimiento del Centro Comercial. Llegados a este punto y con la perspectiva del tiempo cabe preguntarnos, ¿qué entendemos pues por Centro Comercial? ¿Cómo lo percibimos? Abordamos ahora el problema de la percepción del Centro Comercial y su significado. Además de constituirse en símbolo, referencia siempre presente, la eficacia del Shopping es una de las principales causas de su poder de atracción. El Centro Comercial resulta de la síntesis de la revolución del consumo y de la revolución de la gestión. Espacio eficaz del entretenimiento como destino. El usuario resuelve su vida cotidiana dentro de un hábitat que considera propio y que se entiende como el lugar hiperbólico de la transacción comercial. Espacio de la abundancia para el disfrute. Una arquitectura involucrada en esta eficacia. Su sentido del lugar no es otro que el Shopping, que se desenvuelve de forma análoga en todas partes. El hogar del consumidor. Las nuevas catedrales. Las catedrales del consumo. Destino místico. Lugar de peregrinación para el consumidor fervoroso. Espacio sagrado que integra al usuario en la cultura dominante. Cultura del consumo. Templos, donde el tiempo ha perdido su sentido. Paraíso. Un espacio donde la altura, la luz natural, la dimensión general refuerzan el carácter sacro de un espacio para una nueva religión laica. Un espacio seguro, protegido que nos acerca a ideas como la de útero materno, con su carga de calidez y de significación erótica aplicado al encuentro compra-comprador y, ligado a ello, la literatura especializada habla del Centro Comercial como nave espacial hiperesterilizada o de agujero negro que absorbe la energía cultural. Más allá, la simulación, donde se percibe un simulacro de ciudad. Simulacro coherente con todo lo que el Shopping desencadena a su alrededor. El lugar de los sueños, de la fantasía. Aquí los productos se han metamorfoseado en fetiches, en significados. Televisión tridimensional, donde el usuario actúa guiado por una pulsión similar al zapping. Espacio lúdico de la fascinación por comprar o de imaginar que se compra. Espacio de simulaciones que llevan a la ensoñación. Un nuevo lugar que sustituye al espacio cotidiano, con el señuelo de la protección, en un contexto imaginariamente público. Espacio de la hiperrealidad donde no se distingue la realidad de la fantasía, donde tras episodios de confusión y desconcierto, se borran las fronteras con lo imaginario. Espacio mágico, escenario del gran espectáculo del consumo, controlado milimétricamente, al modo de la visita a un gran monumento, que ha de sobrevivir a los tiempos para dar testimonio de nuestro momento. Un icono, un símbolo que transmite un mensaje, que solo el consumidor es capaz de interpretar. Una agitada mezcla, sin precedentes, de percepciones que hablan de perplejidad y asombro ante el fenómeno del Centro Comercial, su espacio y las reacciones del hombre contemporáneo. ¿Cuáles serían las claves que nos permitirían reconocer la calidad esencial de un Centro Comercial, en esta concurrencia de perplejidades? Primero, la función de servicio. Un espacio donde ocurren muchas más cosas que lo obvio, que la compra. Un edificio que se involucra con el entorno de la mano de lo inesperado, la sorpresa y las expectativas. Esta vocación de servicio conecta Centro Comercial y naturaleza arquitectónica. Función que sugiere percepciones ligadas a la experiencia de compra. Organismo que vive y late al unísono con su visitante, colocándose al servicio de sus necesidades, de su afán de consumo, del que vive. Segundo, la comunidad servida. El Centro comercial sirve a una sociedad concreta. La sociedad consumista. Una nueva sociedad que se identifica con el edificio desarrollando un sentido de comunidad al nivel de sus deseos. Esta comunidad que se configura a su alrededor, constituye el activo más poderoso para el éxito de su realidad cotidiana y de su futuro. Tercero, un compromiso de carácter holístico. La economía de la experiencia aplicada al afán consumista de una sociedad identificada con su Centro, da lugar a una experiencia holística planificada. Diseño emocional. Colaboración para el éxito de un conjunto de establecimientos comerciales que participan en la aventura espacio-comercial del Centro Comercial. Ellos son los inductores primarios del consumo. Pero esta colaboración tiene su culminación en la amplificación del mensaje, como un inmenso altavoz, que proviene de la unidad configurada por todos ellos. El reflejo de esta amplificación de mensajes, desde la poderosa unidad constituida, es el aumento de la rentabilidad, fin último de la operación. Cuarto, la forma a través de una identificación de carácter gestáltico. Desde la lectura gestáltica que hacemos de la unidad holística, se advierte una poderosa capacidad de comunicación del sistema con su contexto. Centro y entorno se tornan entonces cómplices que complementan sus realidades. El Centro Comercial, arquitectura estructurada como sistema se percibe –ha de percibirse- como forma unitaria que procede de una mirada de raíz gestáltica que continuamente la recompone desde una óptica espacial y física, ligada a la experiencia individual. Esta unidad formal, más allá de la forma real, se constituye en esencia de de su arquitectura. Quinto, el Centro Comercial como sistema. Un sistema soportado por la Teoría General de Sistemas. La consideración del Centro Comercial como sistema es consecuencia de su estructura holística. El todo no se comporta como la suma de las partes y estas no lo hacen como lo harían en solitario. De aquí surge la necesidad de diálogo permanente entre la comercialización –proceso de incorporación de partes- y su traducción al mundo del diseño –proceso de articular arquitectónicamente las partes. Como sistema así configurado, el Centro Comercial se inserta en el paradigma contemporáneo, lo que genera realidades duales que no son excluyentes y reacciones de perplejidad e incertidumbre que el sistema corrige con su capacidad de autorregulación. Aparece también el espectador cuántico, el visitante, el consumidor, que interactúa con el sistema. Desde las herramientas que nos aporta la idea de sistema complejo, afrontamos el Mix Comercial -en definitiva la eficaz localización de las piezas en orden a sus relaciones y al organismo resultante- y su incidencia en la arquitectura que estamos concibiendo. Una arquitectura impredecible por lo mutable, que se erige en reto de la operación y del diseñador. Diseño que, de la mano del concepto de sistema se convierte en herramienta a mayor gloria de la operación global. El debate del estilismo no será más que el resultado del análisis en busca del éxito de esta operación. Sexto, una arquitectura de la negociación. Negociación como mecanismo proyectual y como resultado. La solución de proyecto nunca resulta evidente en el Centro Comercial como consecuencia de lo imprevisible del propio proceso de configuración. Su concreción solo puede ser fruto del compromiso de todos los agentes por conseguir el objetivo de la operación. Esto se consigue desde el equilibrio de intereses. Comerciales y de diseño. Un compromiso con la negociación y una negociación íntimamente ligada a la coordinación. Séptimo, el espacio y el tiempo. El debate espacio-tiempo condiciona y estructura la percepción del Centro Comercial. Introducimos conceptos como cronotopo –el instante y el lugar donde ocurre algo- y paradoja –incoherencia de la relación causa efecto- que sitúan el vínculo entre el tiempo y el espacio del Centro Comercial en un contexto de Shopping. En el discurrir paralelo del tiempo histórico –el tiempo de fuera- y del tiempo interior, el de dentro del Centro Comercial –tiempo presente o intemporalidad-, se produce el triunfo social del Centro Comercial que se traduce en haber sabido resolver en el espacio y en el tiempo las paradojas postmodernas del hombre contemporáneo. Octavo, de lo global. Globalidad que no es ajena a lo local. Una arquitectura que insertada en la dinámica de una economía de ámbito mundial, refleja las contradicciones que ella impone, fundamentalmente en los procesos de inclusión y exclusión, afectando de manera decisiva al debate de lo local, que el Centro Comercial debe incorporar como herramienta ineludible de reconocimiento. Terminamos el capítulo segundo manifestando como estas ocho claves, asumidas en su conjunto, confirman que el Centro Comercial puede aparecer como un todo conceptual cohesionado, pasando a formar parte de una familia arquitectónica coherente, cuya estructura funcional somos capaces de establecer. El Capítulo Tercero presenta con detalle la figura del arquitecto Víctor Gruen, creador reconocido del moderno Centro Comercial. Presentamos su trayectoria profesional observando como las diferentes claves analizadas en capítulos anteriores van apareciendo de manera natural a lo largo de ella "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. Hombre complejo, conflictivo. Las paradojas a lo largo de su carrera fueron notables. Sin embargo siempre apareció como un hombre recto. Garret Eckbo, reconocido paisajista y colaborador de Gruen en el Centro Comercial peatonal del Centro urbano de Fresno, California, se asombraba de que alguien como Gruen hubiese sido capaz de combinar cortesía y humanidad en la carrera de ratas (sic) en la que se convirtió el universo de la comercialización americana y mantener la integridad542. Philip Johnson, en 1962, ponderando las muchas habilidades de Gruen manifestó que no estaba seguro si alguno de ellos, arquitectos artistas, hubiera sido capaz de hacer lo que Gruen hizo. A más, sobre Gruen, manifestó lo siguiente: "... El va más allá de la creación de un bello edificio. En jugar con la gente y sugerir lo que tienen que hacer, es un maestro. Y obtiene buenos resultados como hace la escultura. El suyo es un arte cívico, un sentido cívico.... Él es capaz de sentarse y poner cosas juntas. No es pomposo ni vano. Yo no me reuniría con él para hablar del diseño (de edificios). Víctor siente que cuando se habla de diseño se está ignorando todo el contexto... Su arquitectura es poderosamente limpia, no vuela la fantasía. Pero cuando te haces con su complejidad, ves que has descubierto algo más allá del diseño.... No puedes decir que haya alguien como él. La arquitectura tiene la suerte de tenerle como arquitecto..." Philip Johnson. Article in Fortune Review. 1962. El Documento de tesis cierra la visión de Gruen realizando un recorrido por los diferentes capítulos de su libro esencial, Shopping Towns Usa: The Planning of Shopping Centers. Solo su índice resulta un monumento al proceso de gestación del Centro Comercial. El libro, aquí simplemente mostrado en su estructura básica como un silencioso testigo, es la referencia canónica los Centros Comerciales contemporáneos, desde su aparición. . El Cuarto Capítulo del Documento de tesis es una recapitulación del trabajo anterior, en el que se sintetizan los conceptos de función y estilo relacionados con el Centro Comercial, se define en qué consiste cada uno de ellos y como, a partir de ahí, podemos afirmar que nos encontramos ante un tipo arquitectónico nuevo en el panorama de la disciplina arquitectónica. Terminamos el Capítulo integrando el Centro Comercial con un cuerpo teórico de referencias que se remiten a un tipo arquitectónico concreto y particular, acogiendo su singularidad como fenómeno arquitectónico autónomo. Como Conclusión de la tesis, resultado de todo lo anterior es decir, como consecuencia de la integración de un torrente de percepciones e intuiciones en un cuerpo teórico de referencias, deducidas de la existencia de unas claves que estructuran y penetran la esencia del singular modelo estudiado, haciéndolo detectable y seductor, resultan las características de un tipo arquitectónico con entidad propia que ordena, orienta y supedita la realidad y la existencia de esta nueva arquitectura. Una arquitectura nunca antes definida como tal, en el panorama tipológico de la disciplina. Teoría tipológica para una nueva arquitectura, que hemos ido proponiendo a lo largo del trabajo y que es coherente con los diferentes parámetros que se han analizado. Un conjunto edificado que, desde el estudio de sus claves esenciales y de sus invariantes perceptibles, aparece ahora más cercano, más familiar. Tanto que es posible destilar desde este conocimiento cercano e íntimo, una síntesis útil como referencia proyectual y como referencia para las grandes cuestiones que preocupan al discurrir del debate arquitectónico y sus ideas. El debate de la disciplina. El objeto de esta tesis, que consistía en establecer que el conjunto edificado que conocemos como Centro Comercial se constituye en un nuevo tipo en el panorama de las tipologías arquitectónicas, entendido el Centro Comercial en sentido genérico como familia arquitectónica con características propias y específicas que la hacen autónoma y reconocible, queda a nuestro juicio argumentado y justificado. ABSTRACT Within the frame of the built heritage there is a construction that is recognized as Shopping Center. An ensemble understood as an architectural family with its own specific recognizable characteristics. This thesis aims to explain that this building complex constitutes a new type in the panorama of architectural typology. This typology, with its singular identity, is connected to a way of understanding the idea of the model beyond an orthodox conception of the term understood as virtual model. This typology comes from a theoretical structure that we called typological theory, and it serves as yet another tool to reference the study and development design of the architectural spaces. In this first section, the Method, we emotionally explore the opportunities of this thesis. Why this typology has been ignored and the interest this work has in the present moment. An opportunity and an interest explained from an experience of a life dedicated to the world of Shopping Centers. The text then introduces the need for a rigorous knowledge of the Shopping Center’s essence in order to understand its impact in the frame of a new society and a new physical environment. A frame time where the historical mechanisms of association of civic community have given way to other gathering spaces like the Shopping Center, which encourages individualism, but is demanded by a society that relates to them. Spaces that, according to Galbraith, are a result of the intrinsic perversity of the unstoppable movement of the wheel of consumption-production. A society that has turned to worship of material achievement. Worship that provokes the appearance of an increasing value of consumption, according to Koolhaas, the only goal of humanity. Worship that ends in the need to reach certain status levels in the plane of a permanent comparison where the need of possession excites the consumer and gives them the illusion of being special. The product of consumption rises up to consideration of social values, entering a dynamic of marketing values, not only objects, but the desire of the individual remains. The study appears also to clarify the meaning of a space that serves the consumer and its context. A meaning that makes sense with the appearance of the suburbanization, the massive utilization of the car, the increase of living standards and the new role of women in the society after the Second World War, giving rise to the Age of Consumption. A world now determined and controlled by media and unlimited offers, where it’s necessary to place them in the context of the ordinary. An architecture that has to be judged precisely for its relation with this specific contemporary man. This section ends justifying the term ignored that appears in the Title of the Thesis, considering it in relation with the lack of studies structured about the Shopping Center and its architecture, drawing from Pevsner's work, A history of building types, 1976. Finally, the Shopping Center is analyzed with the most critical of thoughts, which considers it as populist architecture. The First Chapter, Precedents, proposes an historical tour of the commercial architecture throughout history. The Document looks to place on record the characteristics of the commercial architecture to set the connection between them and the Mall itself. These correspondences are going to allow us to answer the rhetorical question: is it the architecture of the Shopping Center a subsidiary architecture, or does it have its own personality independent from that of the commercial world? The reason of this historical search, citing Bruno Zevi, is that it is indispensable to establish the relationship between architecture and history, understating that an analysis is only possible when researching for their roots. Moreover, according to Guy de Maupassant, we are sure that architecture has had the privilege, across the centuries, of symbolizing as it were each age(…), through the harmony of lines and the charm of ornamentation all the grace and grandeur of an epoch. This historical reading, inseparable from a consistent design action, begins interpreting the commercial architecture of the Minoan to the 20th Century. Though this analysis of the big commercial itineraries and the study of the Shopping Center itself. A reading where we have found a series of constants that make it possible to draw conclusions from this comparison. The Mall appears to give response to the needs of a consumerist society. Comparing to the calm pace of the evolution of other commercial solutions, it is relevant its fast implantation and evolution in a short period of sixty years. Though via different solutions, the commercial spaces are considered taking into account the public-private relation, the interior-exterior, the inside-out, the closed-opened. Through that, the 19th century galleries and the food markets represent a revolution in functionality, in the machine, the modern management and the relations of the citizen within the city. All of this, the Mall inheritor feels. Likewise, the Department Store is the reflection of another great revolution. Production and commercialization en-mass, communications, the fixed price and increase of the living standard. The Mall reinterprets these situations inserting them in a new model of management. Already in the 20th century Mall and mass technologies of sale, the hypermarket is enthusiastically incorporated into the configuration of this organic scheme, constituting the base of one of the models, the French, that will be highly developed in the European continent. The shop itself constitutes, on the other hand, the key piece that completes the puzzle of the Mall and is in this epoch when it starts taking off as architecture, has an autonomous character. After all this, finally, we come to the big commercial routes, which we propose as metaphor of the shopping. Citing Eugenio Ferrer we can conclude that “If we establish a relation between the space and the capitalism, then we can infer that the spaces of the consumption of masses (ECM) are new configurations with regard to the past (...), but the system that introduces it it is not completely” Now we arrive at this point and with the perspective of time it is necessary to ask us, what do we understand about the Shopping Center? How do we perceive it? The second Chapter approaches the problem of the perception of the Mall and from this it is possible to detect and to identify key drivers that orientate the architectural comprehension of the space. The efficiency of the Shopping Center is its main power of attraction. A world that has ensued from the synthesis of the revolution of consumption and management. An effective cavern-like place of entertainment where the user, the consumer, the postmodern man solves his daily life inside a considered habitat. The hyperbolic place of commercial transaction. An abundance of space, that makes us perceive it as destination of entertainment. An architecture has evolved this efficiency, where the sense of place is at one with the sense of the Shopping. The home of the consumer. The new cathedrals. The cathedral of consumption. The place of peregrination for the fervent consumer. A sacred space that integrates the user in the dominant culture. A temple, where time itself has stopped existing. In this paroxysm, an expression of the Garden of Eden or Paradise itself. A space where the height, the natural daylight and the spatial dimension reinforce the sacred character of a new lay religion. Another common perception is that of a protected area, which leads to metaphors and considerations that suggest the idea of maternal womb, with its weight of erotic meaning, referring to the encounter of the shopper making a purchase. The literature also tells us about its perception as a sterile space capsule, a black hole that absorbs all cultural energy. Likewise, a world simulation where a mock city is perceived at first instance. Consistent with all that shopping triggers inside. A city, a space conceived as a place of dreams, fantasy, where the products have been metamorphosed into fetishes. Entertaining a television, three-dimensional television, where the user acts guided by a drive similar to zapping. A play area where the latest fascination is in the act of buying. Space simulations that unite and transcend creating atmospheres that lead to reverie. A new space replacing the daily space with the lure of safe space in a public context. A hyper-reality space with reality and fantasy, where borders are erased with imaginary episodes of confusion and bewilderment, without distinction. The charm and fascination of a space that reads like magic. The magic of a space which is defined as stage extravaganza, the large theatre, the consumer surveys in the fine control mode in which you visit a national monument. The shopping center has to survive the times to be a testimony of our time. An icon, a symbol that conveys a message, the message reads ‘consumer’. In short, a Shopping Center is a mix of unprecedented insights that speak of a widespread phenomenon of bewilderment. Its space and the reactions of contemporary man unfold in it like a fish in water. What are the key aspects which allow us to recognize the essential quality of a shopping center in this concurrence of perplexities? First, we want to record a service function of space much deeper than the immediately obvious, i.e. a purchase occurs. A building that appears to be involved with the environment and its people from the hand of the unexpected circumstances; surprise and attention. And that, in turn, also involves the visitor beyond the purchase. This dedication to service closely links the mall with its architectural nature. It is not the function of a lifeless machine. It is a feature that suggests unsuspected perceptions linked to the purchase, which speaks of an organism that lives and breathes in unison with the visitor. Second, in addition to the vocation of service-oriented desire for consumption, the Mall environment serves a particular society - The consumer society. A new society which relates to building a sense of community developed to the level of their desires. This community also constitutes the most powerful asset to the success of the daily life of the Shopping Center. Third, we emphasize that the so called economy of the experience is combined with the consumer zeal of a company that is identified by the Shopping Center. It connects to form a holistic and planned experience. This experience takes shape in the entity that ensues from the premeditated association and synergy, in the sense of a collaboration for success. A set of concrete commercial and independent establishments, take part in the spatial and commercial adventure that is the Mall and they are the instigators of the consumption. This holistic behavior finds culmination in the amplification of a claim that becomes unitary, like an immense force that leads to an increased profitability to all the levels. Consummation is a reference of one human being overturned in an architecture assimilated into a legitimate, emotional design with stability. A holistic quality is born of the essence of the building - and by virtue of the Conditions of Alexander, Christopher Alexander, determines the system condition of the Shopping Center. Fourth, we propose to establish what character the Mall will form when joined with the concept of its typology. This is going to allow the architectural work to be formed. As a result of the holistic structure that we see, the Mall is perceived as a system whose parts have their own function, justifying their existence in the ecosystem. Across a gestalt there is a powerful capacity of communication between the system and its context. We visualize on the one that stands out our building, turning both, Center and environment, in accomplices of a few special relations who complement each other in his realities. This relationship within a complex and diverse environment gives the Mall a range of unique spatial perceptions, the result of disparate experiences, which because of its root origin of gestalt, are integrated into a unified and coordinated manner fully intelligible and organized. This is the final formal essence of the Shopping Center. We can conclude here that the Mall as architecture is a structured system and should be perceived as a unit both from a physical and spatial perspective as this is the essence of its architecture. Fifth, the Mall as a system. A system which is being supported by a broad theoretical corpus, the General Systems Theory, which offers sufficient methodology to descend into consideration and give an enlightened conclusion on the overall understanding of the Mall. Consideration of the Mall as a system is a result of its holistic structure. The whole does not behave like any of the parties and they do not behave the way they used to before belonging to the whole, because they inhibit many of their qualities to their advantage. It arises the need for an ongoing dialogue between marketing processes and its translation into the physical world, the design. The system generates multiple perceptions to be integrated into a body which is to be understood as unitary. As a system, the Mall is inserted into the contemporary paradigm, creating dual realities that are not exclusive and are reactions of uncertainty that the system be properly designed at all levels, faced with their ability to self-regulate. Likewise, considering the visitor, the customer, like the quantum spectator who interacts with the system permanently. Moreover, a complex system confronts us with the Commercial mix, the effective location of parts in order to relate to the body and its importance in the architecture we are conceiving. Unpredictable architecture, which stands as the challenge of the operation and the designer. Design that becomes the tool of the system to create success for the overall operation. The discussion of the styling is merely the result of analysis that also seeks the success of the system, i.e. the styling should send the right message for the environment to ensure its survival. Sixth, the idea of negotiation as an architecture project, a mechanism inherent to the status of the proposed system. The project solution is never evident at the Shopping Center because of the unpredictability of the process itself. It can only be the fruit of the commitment of all stakeholders to achieve the objective of the operation. This is achieved from the balance of interests, of commercial and design. A commitment to negotiation and a negotiation linked to coordination. The pursuit of stability is key, as instability is always present and constantly requires strategies to build the object you are configuring. Seventh, proposes space-time itself as a circumstance that determines and structures the perception of the Mall in a singular way. We introduce concepts as chronotope and paradox to help us place the relationship between time and space within the Mall in the context of shopping. A consequence of the parallel flow of historical time - the time outside - and the time inside the Mall, the big shopping center formula is precisely that of having the feeling of timelessness in the space. The social triumph of the mall is the ability to resolve in space and in time all postmodern paradoxes and, beyond that, of contemporary man, condensing into a small space and time an enormous amount of cultural symbols, often contradictory, but they attract the practice of consumerism. Eighth, global level. Globalization which doesn’t ignore the local level. Architecture that is inserted into the dynamics of a global economy, reflects the contradictions that it imposes, mainly in the processes of inclusion and exclusion. Inclusion and exclusion affect the debate of the local level, which the Mall must incorporate as an unavoidable tool of recognition. The eight fundamental principles, when applied as a whole, confirm that the built heritage, which corresponds to the general Mall idea, can be presented as a cohesive conceptual whole. This becomes part of a coherent architectural family, whose functional structures are able to be established. The Third chapter presents in a detailed way the figure of the architect Victor Gruen, recognized as the creator of the modern Mall. Studying his professional experience, it is shown how the different keys analyzed in previous chapters are appearing in a natural way. "Victor Gruen may well have been the most influential architect of the twentieth century." Malcolm Gladwell. The Terrazo Jungle. Fifty Years Ago, The Mall Was Born. America Never Would Be The Same. 2004. In The New Yorker. He was a complex, troubled man and the paradoxes along his career were notable. Nevertheless, always he appeared as a straight man. Garret Eckbo, the recognized landscape painter and collaborator of Gruen was astonished how Gruen had been capable of combining comity and humanity in this career of rates, into that the American commercialization turned, Johnson, in 1962, weighting many Gruen's skills demonstrated that he was not sure if anyone of them, architects artists, had been capable of doing what Gruen did. He goes beyond just the creation of a beautiful building. In playing on people and suggesting what they ought to do, he is a master. (…) his architecture is clean - hardly architecture, no flights of fancy. But when you get hold of its complexity, you've got something beyond the design... You can't say there's someone like him. Architecture is lucky to have him as an architect." Philip Johnson. Article in Fortune Review. 1962. The Document of the thesis closes with Gruen's vision of realizing a tour through the different chapters of his essential book, Shopping towns USA: The Planning of Shopping Centers. It’s mere index turns out to be a monument to the process of the gestation of the Mall. The book, simply acted in its basic structure as a silent witness, as the canonical reference for the contemporary Malls. The Fourth Chapter of the Document of the thesis is a recapitulation of the previous work, which synthesizes the concepts of function and style related to the Shopping Center, and clearly defines how they are defined so we can conclude that we have found an architectural new type in the panorama of the architectural discipline. Therefore, the Conclusion of the thesis integrates this development in a theoretical body of references that relate to an architectural specific and particular type, which receives the singularity of the Shopping Center as an architectural independent phenomenon as it has tried to demonstrate from the beginning of the work. To conclude, as a result of the integrative process and the development of the theoretical body of references, the essential characteristics of the order and concept of the architectural typology form the existence of a new architecture; architecture never before defined as such, in the theoretical typology of the discipline. A theoretical typology for a new architecture is proposed throughout the discussed research and forms a conclusion of the different parameters that have been analysed. As a building complex, from the study of the essential characteristics and of the perceptible constants, the typology is more clearly defined and thus, becomes a useful tool and precedent for the consideration of the discipline. The thesis then justifies how the building complex known as Shopping Center constitutes a new type of architectural typology.
Resumo:
El trabajo de investigación que a continuación se expone está centrado en el estudio dendrocronológico de los efectos de la explotación resinera en el crecimiento de una masa natural de Pinus pinaster Ait. situada al noreste de la provincia de Segovia, concretamente en el término municipal de Moral de Hornuez. Trata de establecer la relación causa-efecto entre la explotación resinera a la que fue sometida la masa y el crecimiento anual en la zona analizada, tanto del árbol individual como la masa en su conjunto. Para realizar dicho estudio se ha tomado una muestra de diecinueve pies de la citada masa, que ha sido posible gracias a la cesión de los mismos por parte de la Junta de Castilla y León. Se da la particularidad de que el monte sufrió un incendio forestal en Agosto de 2008, lo que provocó la muerte de la mayoría de los pinos y su consiguiente apeo ulterior, por lo que se ha podido contar prácticamente con todos los tocones completos de los pies que componen la muestra. Un 30% de dicha muestra no había sido objeto de resinación y el 70% restante sí presentaban las heridas correspondientes a tal aprovechamiento. Contrastando el crecimiento de ambos grupos, resinados y no resinados, se pretende averiguar finalmente en qué medida afecta la práctica de extracción de miera en el crecimiento del árbol.
Resumo:
En este trabajo se presentan los resultados obtenidos tras ejecutar resalveos de conversion de diferente peso en un tallar envejecido de encina (Quercus ilex subsp. ballota) situado en Guadalajara. El dispositivo experimental se instaló e inventarió en 1994. En 1995 se aplicaron resalveos de pesos variables entre 0 % (control) y 100 % de area basimétrica extraída. En 2010 se han realizado nuevos inventarios, encontrando una abundante egeneración de Pinus nigra a partir de pinos adultos dispersos en la zona de estudio. Dicha regeneración está significativamente relacionada con los pesos de clara aplicados y con la proximidad de pinos adultos de grandes diámetros.
Resumo:
Influencia de las teorías psicológicas, en particular las sinestésicas, del siglo XIX en las arquitecturas lúdicas de los siglos XIX y XX
Resumo:
Se presentan resultados obtenidos mediante la aplicación del MétododePartículasyElementosFinitos (PFEM) en la simulación dedeslizamientosdeladeraenembalses. Es un fenómeno complejo, por la interacción entre el material deslizado, la masa de agua del embalse, yel conjunto formado por el vaso y la presa. PFEM es un esquema numérico original con el que se ha afrontado con éxito la resolución de problemas de interacción fluido-estructura. Combina un enfoque Lagrangiano con la resolución de las ecuaciones deelementosfinitosmediante la generación de una malla, que se actualiza en cada paso de tiempo. Se presentan resultados de casos de validación en los que se han reproducido ensayos en laboratorio existentes en la bibliografía técnica. Se muestran también otros cálculos más complejos, sobre la cartografía a escala real de un embalse, donde se aprecia el fenómeno de generación de la ola, su propagación por el embalse y la afección a la presa. Por último, se ha modelado el deslizamiento ocurrido en 1958 en la bahía de Lituya (Alaska), enel que la caída de 90 millones de toneladas de roca produjo una ola que alcanzó una sobreelevación máxima de 524 m en la ladera opuesta. Los resultados permiten afirmar que PFEM puede ser una herramienta útil enel análisis de riesgos frente a este tipo de fenómenos, ofreciendo una buena aproximación de las afecciones potenciales
Resumo:
El presente Proyecto Fin de Carrera forma parte de un Estudio más amplio llevado a cabo por la Unidad de Anatomía, Fisiología y Genética de la E.T.S.I. de Montes y la Unidad Docente de Dasometría, Ordenación de Montes y Aprovechamientos Forestales del Departamento de Economía y Gestión Forestal de la E.U.I.T. Forestal ambos pertenecientes a la Universidad Politécnica de Madrid. El objetivo general de dicho estudio es analizar el estado actual del rebollar en las “Matas de Valsaín”, desde la caracterización de la masa y la gestión a nivel de monte hasta el efecto de la cepa en el crecimiento del árbol individual. Los objetivos concretos del presente Proyecto de Fin de Carrera son los siguientes: 1. Análisis de la evolución histórica de la Ordenación a través del Proyecto de Ordenación y las dos revisiones elaboradas hasta la fecha para conocer el estado de las masas y sus tratamientos pasados. 2. Caracterización Estructural de los rebollares de acuerdo con la clave tipológica utilizadas para los rebollares de la Comunidad de Madrid (Serrada et al., 1993) a partir de los inventarios de la 1ª Revisión, de 1993 y la 2ª Revisión, de 2003. 3. Análisis de la influencia de la clonalidad en el crecimiento en altura media y en el crecimiento en sección del árbol individual y determinación del efecto de la competencia entre pies de la misma cepa y entre cepas en dicho crecimiento.
Resumo:
Los objetivos de este trabajo son analizar la relación entre factores estacionales y selvícolas y la presencia de P. pini en la masa de origen natural de pino silvestre localizada en la Sierra de Guadarrama, y realizar una evaluación de la capacidad de predecir las situaciones más vulnerables al ataque. Según el modelo, la probabilidad de presencia de P. pini disminuye de forma lineal con la altitud. La variación en la orientación apenas influye en la probabilidad de presencia de pies chamosos excepto en las zonas de solana pura en las que la probabilidad aumenta ligeramente. Tanto la densidad como el área basimétrica influyen positivamente en la probabilidad de presencia de P. pini. El efecto de ambas variables es de forma sigmoide, con valores máximos de probabilidad de presencia a partir de 35m2/ha y por debajo de 500 pies/ha. La evaluación interna (usando bootstrap) de la capacidad predictiva del modelo es aceptable para la discriminación (área bajo la curva ROC de 0.71) y muy buena para la calibración (pendiente= 0.95; constante= -0.04). A la espera de una validación del modelo con una muestra independiente, los resultados sugieren que el riesgo de daños por P. pini se puede pronosticar de forma fiable con el modelo desarrollado.
Resumo:
El deterioro del hormigón por ciclos hielo/deshielo en presencia de sales fundentes es causa frecuente de problemas en los puentes e infraestructuras en los países europeos. La resistencia del hormigón frente a este ataque se evalúa con la norma UNE-CENT/TS 12390-9. Esta norma emplea una solución de 3% de NaCl como medio de congelación. El deterioro se mide por la pérdida de masa superficial tras 28 ciclos hielo/deshielo. Este procedimiento de medida tiene algunos inconvenientes de orden práctico. Este artículo propone evaluar el déte rioro mediante el increm ento de deformación, con galgas extensométricas y mediante la modificación de la velocidad de pulsos ultrasónicos. El trabajo presenta los resultados correspondientes al ensayo de dos hormigones, uno con buen comportamiento frente al ensayo y el otro no. En ambos casos se constata experimentalmente la viabilidad y ventajas de las formas de medida propuestas. Los procedimientos propuestos captan el deterioro antes, permiten la medida en continuo y evitan tener que parar el ensayo para realizar las medidas
Resumo:
Los trabajos previos en los que se han estudiado las recomendaciones de metionina+cistina para gallinas ponedoras son muy numerosos, pero los resultados obtenidos presentan una gran variabilidad y, en algunos casos, son contradictorios. Esta variabilidad se explica por las condiciones en las que se ha realizado el estudio, la edad de las gallinas, la genética y el parámetro a optimizar. En este sentido, Novak et al. (2004) observaron que las necesidades totales de metionina+cistina eran mayores para maximizar el peso del huevo que para optimizar la producción de huevos o la eficacia alimenticia. Estas diferencias fueron menos importantes entre las 20 y 43 semanas (8%), que de las 44 a las 63 semanas de edad (16%). Además, las recomendaciones para optimizar la producción y el peso del huevo fueron un 17% y 11% mayores, respectivamente, en el primer periodo con respecto al segundo. Por el contrario, Waldroup y Hellwig (1995) encontraron que las necesidades totales de metionina+cistina para optimizar la producción y masa de huevo fueron más elevadas (12 y 10%, respectivamente) de 51 a 71 semanas de edad que de 25 a 45. Cuando las recomendaciones se expresan en unidades digestibles, el rango de necesidades de metionina+cistina digestibles con respecto a lisina digestible varía desde un 81 a un 107% (81%: Coon and Zhang, 1999; 90%: FEDNA, 2008; 91%: Rostagno et al., 2005; 93%: CVB, 1996; 94%: Bregendahl et al., 2008; 99%: Brumano et al., 2010a; 100%: Cupertino et al., 2009; Brumano et al., 2010a; 101%: Brumano et al., 2010b; 107%: Schmidt et al., 2009). Como consecuencia de esta alta variabilidad, es necesario seguir investigando sobre cuál sería el ratio óptimo metionina+cistina/lisina digestible para optimizar los rendimientos de gallinas ponedoras. Por tanto, el objetivo de este trabajo es determinar las necesidades óptimas de metionina+cistina digestibles con respecto a lisina digestible de gallinas Isa Brown desde las 34 a las 42 semanas de edad
Resumo:
Una planta AIP es cualquier sistema propulsivo capaz de posibilitar la navegación de un vehículo submarino bajo la superficie del mar de forma completamente independiente de la atmósfera terrestre. El uso a bordo de submarinos de plantas AIP basadas en la reacción química entre un hidrocarburo y oxígeno (ambos almacenados en el interior del submarino) da lugar a la producción en grandes cantidades de agua y CO2, residuos que necesitan ser eliminados. En concreto, la producción de CO2 en grandes cantidades (y en estado gaseoso) constituye un auténtico problema en un submarino navegando en inmersión, ya que actualmente no resulta viable almacenarlo a bordo, y su eliminación tiene que llevarse a cabo de forma discreta y con un coste energético reducido. Actualmente, hay varias alternativas para eliminar el CO2 producido en la propulsión de un submarino navegando en inmersión, siendo la más ventajosa la disolución de dicha sustancia en agua de mar y su posterior expulsión al exterior del submarino. Esta alternativa consta básicamente de 3 etapas bien definidas: • Etapa 1.- Introducir agua de mar a bordo del submarino, haciendo bajar su presión desde la existente en el exterior hasta la presión a la que se quiere realizar el proceso de disolución. • Etapa 2.- Llevar a cabo el proceso de disolución a presión constante e independiente de la existente en el exterior del submarino. • Etapa 3.- Expulsar fuera del submarino el agua de mar saturada de CO2 haciendo subir su presión desde la correspondiente al proceso de disolución hasta la existente en el exterior. Para ejecutar las etapas 1 y 3 con un coste energético aceptable, resulta necesaria la instalación de un sistema de recuperación de energía, el cual basa su funcionamiento en aprovechar la energía producida en la caída de presión del flujo de agua entrante para elevar la presión del flujo de agua saliente saturada de CO2. El sistema arriba citado puede implementarse de 3 formas alternativas: • Recuperación de doble salto mediante máquinas hidráulicas de desplazamiento positivo. • Recuperación directa mediante cilindros estacionarios dotados de pistones internos. • Recuperación directa mediante cilindros rotativos sin pistones internos. Por otro lado, para ejecutar la etapa 2 de forma silenciosa, y sin ocupar excesivo volumen, resulta necesaria la instalación de un sistema de disolución de CO2 en agua de mar a baja presión, existiendo actualmente 2 principios funcionales viables: • Dispersión de finas burbujas de gas en el seno de una masa de agua. • Difusión directa de CO2 a través de una inter-fase líquido/gas estable sin procesos de dispersión previos. Una vez dicho todo esto, el objetivo de la tesis consiste en llevar a cabo dos estudios comparativos: uno para analizar las ventajas/inconvenientes que presentan las 3 alternativas de recuperación de energía citadas y otro para analizar las ventajas/inconvenientes que presentan los sistemas de disolución de CO2 en agua de mar basados en los 2 principios funcionales mencionados. En ambos estudios se van a tener en cuenta las singularidades propias de una instalación a bordo de submarinos. Para finalizar este resumen, cabe decir que la ejecución de los estudios arriba citados ha exigido el desarrollo de un código software específico (no disponible en la bibliografía) para llevar a cabo la simulación numérica de los distintos sistemas presentados en la tesis. Este código software se ha desarrollado bajo una serie de restricciones importantes, las cuales se listan a continuación: • Ha sido necesario tener en cuenta fluidos de trabajo multi-componente: agua de mar con CO2 disuelto. • El fluido de trabajo se encuentra normalmente en estado líquido, habiendo sido necesario considerar fenómenos de cambio de fase únicamente en etapas incipientes. • La algoritmia se ha diseñado de la forma más simple posible, al objeto de facilitar el subsiguiente proceso de programación y reducir al máximo el tiempo de ejecución en máquina. • La algoritmia arriba citada se ha diseñado para llevar a cabo análisis de tipo comparativo solamente, y no para obtener resultados extremadamente precisos en términos absolutos.
Resumo:
Como cualquier encinar que eligiésemos a fin de concretar en él nuestro estudio, quedaría enclavado dentro de la masa general de encina que puebla el término de Villanueva de Córdoba, sometida toda ella al mismo tratamiento y sobre la que gravitan los mismos problemas, creemos conveniente dividir nuestro trabajo en dos partes, comprendiendo la primera esas cuestiones de índole general, no sólo dentro del término de Villanueva, sino comunes a todo el valle de los Pedroches, haciendo resaltar los problemas que en la actualidad se presentan y sus soluciones adecuadas: tratando en la segunda de las características, tratamiento y distintos aprovechamientos que posee, de que es objeto y rinde una finca concreta que posea las condiciones que se nos señala de “tener una producción frutal no inferior de la necesaria para el cebo o engorde de una piara de trescientos cerdos”. Siguiendo esta directriz, tratamos en la primera parte de la evolución histórico-jurídica, primero, y selvícola, después, de la masa encinar del término; pasamos a ocuparnos después de los tratamientos de que son objeto, del suelo y vuelo; estudiamos detenidamente la cuestión de plagas con los remedios que se han puesto y cabe poner en práctica, y, por último, tratamos de los distintos aprovechamientos de que son objeto estos encinares. En la segunda parte concretamos nuestro estudio sobre el monte “Las Navas” de propiedad particular en cuanto a sus estados legal, natural y forestal, y determinamos su capacidad en ganado deducida de su posibilidad en fruto y el rendimiento en los distintos aprovechamientos de que es objeto la finca. Resaltamos de antemano los tres problemas pendientes de solución, de gran trascendencia en cuanto al estado actual y futuro y de los encinares y su economía general: la extinción de plagas, la regeneración artificial del arbolado y el aprovechamiento del fruto mediante su conservación o transformación. El primer problema, siempre de actualidad, y de posible realización, que por su persistencia ha adquirido caracteres de catástrofe, es de lamentar que quede sin resolver después de los importantes trabajos realizados por el antiguo Servicio de Estudio y Extinción de Plagas Forestales, adscrito al Cuerpo de Montes. El segundo problema, el de la regeneración de los encinares, lo encontramos de necesaria solución, a pesar de la imposibilidad de los particulares que creen en la indefinida longevidad de la encina; pues es ya grande la extensión de la zona desarbolada o casi desarbolada, sin que su suelo produzca apenas utilidad alguna después de la desaparición del arbolado; y cierto el estado decadente del vuelo de algunas fincas. Y, por último, la cuestión de la conservación del fruto en grandes cantidades, o, mejor aún, su transformación en harina y conservación de la misma, es de gran transcendencia económica y su solución resolvería el problema del total y apropiado aprovechamiento de la bellota. Ilustran nuestro trabajo una pequeña colección de fotografías relacionadas con los distintos asuntos tratados, un pequeño muestrario de lo distintos tipos de fruto de la localidad y de diversas variedades de encina, y varias modalidades de las puestas de L. dispar y M. neustria, sin que hayamos podido recoger ninguna de T. viridana como era nuestro propósito. …
Resumo:
La deposición de determinadas fracciones de finos en el entorno de los pozos de inyección y las balsas de infiltración, ambas instalaciones de recarga artificial de acuíferos, conlleva la variación de propiedades hidrogeológicas del medio tales como la permeabilidad. La hidráulica de pozos y la hidrodinámica de balsas tradicionales no contemplan la condición de permeabilidad variable, por lo que se han investigado las funciones de colmatación y permeabilidad como funciones matemáticas susceptibles de reproducir este nuevo comportamiento. A partir de estas funciones, la utilización de métodos analíticos y numéricos ha permitido desarrollar las correspondientes ecuaciones de flujo aplicables a medios detríticos colmatados; el objetivo de esta nueva formulación es la cuantificación de los efectos que los procesos de colmatación tienen sobre las formaciones permeables. Se comprueba que el caudal unitario infiltrado en las balsas de recarga depende de la permeabilidad del medio; asimismo, en dichas instalaciones, la masa de finos colmatada depende de su concentración en la superficie de infiltración y de las velocidades de decantación e infiltración a través de la balsa. Por su parte y en presencia de colmatación, los acuíferos sometidos a caudales constantes de inyección por pozos experimentan ascensos de nivel piezométrico superiores a los teóricamente predecibles; por el contrario, la evolución de los caudales de inyección a nivel constante en los pozos de recarga responde a un comportamiento decreciente, también superior a lo inicialmente previsto por el modelo teórico. Estas variaciones de caudal y nivel piezométrico dependen de parámetros como la concentración y tamaño de los sólidos en suspensión en el agua de recarga, el tamaño de las partículas constituyentes del medio detrítico, la distancia al eje del pozo, etc.