686 resultados para Huella plantar
Resumo:
La optimización de parámetros tales como el consumo de potencia, la cantidad de recursos lógicos empleados o la ocupación de memoria ha sido siempre una de las preocupaciones principales a la hora de diseñar sistemas embebidos. Esto es debido a que se trata de sistemas dotados de una cantidad de recursos limitados, y que han sido tradicionalmente empleados para un propósito específico, que permanece invariable a lo largo de toda la vida útil del sistema. Sin embargo, el uso de sistemas embebidos se ha extendido a áreas de aplicación fuera de su ámbito tradicional, caracterizadas por una mayor demanda computacional. Así, por ejemplo, algunos de estos sistemas deben llevar a cabo un intenso procesado de señales multimedia o la transmisión de datos mediante sistemas de comunicaciones de alta capacidad. Por otra parte, las condiciones de operación del sistema pueden variar en tiempo real. Esto sucede, por ejemplo, si su funcionamiento depende de datos medidos por el propio sistema o recibidos a través de la red, de las demandas del usuario en cada momento, o de condiciones internas del propio dispositivo, tales como la duración de la batería. Como consecuencia de la existencia de requisitos de operación dinámicos es necesario ir hacia una gestión dinámica de los recursos del sistema. Si bien el software es inherentemente flexible, no ofrece una potencia computacional tan alta como el hardware. Por lo tanto, el hardware reconfigurable aparece como una solución adecuada para tratar con mayor flexibilidad los requisitos variables dinámicamente en sistemas con alta demanda computacional. La flexibilidad y adaptabilidad del hardware requieren de dispositivos reconfigurables que permitan la modificación de su funcionalidad bajo demanda. En esta tesis se han seleccionado las FPGAs (Field Programmable Gate Arrays) como los dispositivos más apropiados, hoy en día, para implementar sistemas basados en hardware reconfigurable De entre todas las posibilidades existentes para explotar la capacidad de reconfiguración de las FPGAs comerciales, se ha seleccionado la reconfiguración dinámica y parcial. Esta técnica consiste en substituir una parte de la lógica del dispositivo, mientras el resto continúa en funcionamiento. La capacidad de reconfiguración dinámica y parcial de las FPGAs es empleada en esta tesis para tratar con los requisitos de flexibilidad y de capacidad computacional que demandan los dispositivos embebidos. La propuesta principal de esta tesis doctoral es el uso de arquitecturas de procesamiento escalables espacialmente, que son capaces de adaptar su funcionalidad y rendimiento en tiempo real, estableciendo un compromiso entre dichos parámetros y la cantidad de lógica que ocupan en el dispositivo. A esto nos referimos con arquitecturas con huellas escalables. En particular, se propone el uso de arquitecturas altamente paralelas, modulares, regulares y con una alta localidad en sus comunicaciones, para este propósito. El tamaño de dichas arquitecturas puede ser modificado mediante la adición o eliminación de algunos de los módulos que las componen, tanto en una dimensión como en dos. Esta estrategia permite implementar soluciones escalables, sin tener que contar con una versión de las mismas para cada uno de los tamaños posibles de la arquitectura. De esta manera se reduce significativamente el tiempo necesario para modificar su tamaño, así como la cantidad de memoria necesaria para almacenar todos los archivos de configuración. En lugar de proponer arquitecturas para aplicaciones específicas, se ha optado por patrones de procesamiento genéricos, que pueden ser ajustados para solucionar distintos problemas en el estado del arte. A este respecto, se proponen patrones basados en esquemas sistólicos, así como de tipo wavefront. Con el objeto de poder ofrecer una solución integral, se han tratado otros aspectos relacionados con el diseño y el funcionamiento de las arquitecturas, tales como el control del proceso de reconfiguración de la FPGA, la integración de las arquitecturas en el resto del sistema, así como las técnicas necesarias para su implementación. Por lo que respecta a la implementación, se han tratado distintos aspectos de bajo nivel dependientes del dispositivo. Algunas de las propuestas realizadas a este respecto en la presente tesis doctoral son un router que es capaz de garantizar el correcto rutado de los módulos reconfigurables dentro del área destinada para ellos, así como una estrategia para la comunicación entre módulos que no introduce ningún retardo ni necesita emplear recursos configurables del dispositivo. El flujo de diseño propuesto se ha automatizado mediante una herramienta denominada DREAMS. La herramienta se encarga de la modificación de las netlists correspondientes a cada uno de los módulos reconfigurables del sistema, y que han sido generadas previamente mediante herramientas comerciales. Por lo tanto, el flujo propuesto se entiende como una etapa de post-procesamiento, que adapta esas netlists a los requisitos de la reconfiguración dinámica y parcial. Dicha modificación la lleva a cabo la herramienta de una forma completamente automática, por lo que la productividad del proceso de diseño aumenta de forma evidente. Para facilitar dicho proceso, se ha dotado a la herramienta de una interfaz gráfica. El flujo de diseño propuesto, y la herramienta que lo soporta, tienen características específicas para abordar el diseño de las arquitecturas dinámicamente escalables propuestas en esta tesis. Entre ellas está el soporte para el realojamiento de módulos reconfigurables en posiciones del dispositivo distintas a donde el módulo es originalmente implementado, así como la generación de estructuras de comunicación compatibles con la simetría de la arquitectura. El router has sido empleado también en esta tesis para obtener un rutado simétrico entre nets equivalentes. Dicha posibilidad ha sido explotada para aumentar la protección de circuitos con altos requisitos de seguridad, frente a ataques de canal lateral, mediante la implantación de lógica complementaria con rutado idéntico. Para controlar el proceso de reconfiguración de la FPGA, se propone en esta tesis un motor de reconfiguración especialmente adaptado a los requisitos de las arquitecturas dinámicamente escalables. Además de controlar el puerto de reconfiguración, el motor de reconfiguración ha sido dotado de la capacidad de realojar módulos reconfigurables en posiciones arbitrarias del dispositivo, en tiempo real. De esta forma, basta con generar un único bitstream por cada módulo reconfigurable del sistema, independientemente de la posición donde va a ser finalmente reconfigurado. La estrategia seguida para implementar el proceso de realojamiento de módulos es diferente de las propuestas existentes en el estado del arte, pues consiste en la composición de los archivos de configuración en tiempo real. De esta forma se consigue aumentar la velocidad del proceso, mientras que se reduce la longitud de los archivos de configuración parciales a almacenar en el sistema. El motor de reconfiguración soporta módulos reconfigurables con una altura menor que la altura de una región de reloj del dispositivo. Internamente, el motor se encarga de la combinación de los frames que describen el nuevo módulo, con la configuración existente en el dispositivo previamente. El escalado de las arquitecturas de procesamiento propuestas en esta tesis también se puede beneficiar de este mecanismo. Se ha incorporado también un acceso directo a una memoria externa donde se pueden almacenar bitstreams parciales. Para acelerar el proceso de reconfiguración se ha hecho funcionar el ICAP por encima de la máxima frecuencia de reloj aconsejada por el fabricante. Así, en el caso de Virtex-5, aunque la máxima frecuencia del reloj deberían ser 100 MHz, se ha conseguido hacer funcionar el puerto de reconfiguración a frecuencias de operación de hasta 250 MHz, incluyendo el proceso de realojamiento en tiempo real. Se ha previsto la posibilidad de portar el motor de reconfiguración a futuras familias de FPGAs. Por otro lado, el motor de reconfiguración se puede emplear para inyectar fallos en el propio dispositivo hardware, y así ser capaces de evaluar la tolerancia ante los mismos que ofrecen las arquitecturas reconfigurables. Los fallos son emulados mediante la generación de archivos de configuración a los que intencionadamente se les ha introducido un error, de forma que se modifica su funcionalidad. Con el objetivo de comprobar la validez y los beneficios de las arquitecturas propuestas en esta tesis, se han seguido dos líneas principales de aplicación. En primer lugar, se propone su uso como parte de una plataforma adaptativa basada en hardware evolutivo, con capacidad de escalabilidad, adaptabilidad y recuperación ante fallos. En segundo lugar, se ha desarrollado un deblocking filter escalable, adaptado a la codificación de vídeo escalable, como ejemplo de aplicación de las arquitecturas de tipo wavefront propuestas. El hardware evolutivo consiste en el uso de algoritmos evolutivos para diseñar hardware de forma autónoma, explotando la flexibilidad que ofrecen los dispositivos reconfigurables. En este caso, los elementos de procesamiento que componen la arquitectura son seleccionados de una biblioteca de elementos presintetizados, de acuerdo con las decisiones tomadas por el algoritmo evolutivo, en lugar de definir la configuración de las mismas en tiempo de diseño. De esta manera, la configuración del core puede cambiar cuando lo hacen las condiciones del entorno, en tiempo real, por lo que se consigue un control autónomo del proceso de reconfiguración dinámico. Así, el sistema es capaz de optimizar, de forma autónoma, su propia configuración. El hardware evolutivo tiene una capacidad inherente de auto-reparación. Se ha probado que las arquitecturas evolutivas propuestas en esta tesis son tolerantes ante fallos, tanto transitorios, como permanentes y acumulativos. La plataforma evolutiva se ha empleado para implementar filtros de eliminación de ruido. La escalabilidad también ha sido aprovechada en esta aplicación. Las arquitecturas evolutivas escalables permiten la adaptación autónoma de los cores de procesamiento ante fluctuaciones en la cantidad de recursos disponibles en el sistema. Por lo tanto, constituyen un ejemplo de escalabilidad dinámica para conseguir un determinado nivel de calidad, que puede variar en tiempo real. Se han propuesto dos variantes de sistemas escalables evolutivos. El primero consiste en un único core de procesamiento evolutivo, mientras que el segundo está formado por un número variable de arrays de procesamiento. La codificación de vídeo escalable, a diferencia de los codecs no escalables, permite la decodificación de secuencias de vídeo con diferentes niveles de calidad, de resolución temporal o de resolución espacial, descartando la información no deseada. Existen distintos algoritmos que soportan esta característica. En particular, se va a emplear el estándar Scalable Video Coding (SVC), que ha sido propuesto como una extensión de H.264/AVC, ya que este último es ampliamente utilizado tanto en la industria, como a nivel de investigación. Para poder explotar toda la flexibilidad que ofrece el estándar, hay que permitir la adaptación de las características del decodificador en tiempo real. El uso de las arquitecturas dinámicamente escalables es propuesto en esta tesis con este objetivo. El deblocking filter es un algoritmo que tiene como objetivo la mejora de la percepción visual de la imagen reconstruida, mediante el suavizado de los "artefactos" de bloque generados en el lazo del codificador. Se trata de una de las tareas más intensivas en procesamiento de datos de H.264/AVC y de SVC, y además, su carga computacional es altamente dependiente del nivel de escalabilidad seleccionado en el decodificador. Por lo tanto, el deblocking filter ha sido seleccionado como prueba de concepto de la aplicación de las arquitecturas dinámicamente escalables para la compresión de video. La arquitectura propuesta permite añadir o eliminar unidades de computación, siguiendo un esquema de tipo wavefront. La arquitectura ha sido propuesta conjuntamente con un esquema de procesamiento en paralelo del deblocking filter a nivel de macrobloque, de tal forma que cuando se varía del tamaño de la arquitectura, el orden de filtrado de los macrobloques varia de la misma manera. El patrón propuesto se basa en la división del procesamiento de cada macrobloque en dos etapas independientes, que se corresponden con el filtrado horizontal y vertical de los bloques dentro del macrobloque. Las principales contribuciones originales de esta tesis son las siguientes: - El uso de arquitecturas altamente regulares, modulares, paralelas y con una intensa localidad en sus comunicaciones, para implementar cores de procesamiento dinámicamente reconfigurables. - El uso de arquitecturas bidimensionales, en forma de malla, para construir arquitecturas dinámicamente escalables, con una huella escalable. De esta forma, las arquitecturas permiten establecer un compromiso entre el área que ocupan en el dispositivo, y las prestaciones que ofrecen en cada momento. Se proponen plantillas de procesamiento genéricas, de tipo sistólico o wavefront, que pueden ser adaptadas a distintos problemas de procesamiento. - Un flujo de diseño y una herramienta que lo soporta, para el diseño de sistemas reconfigurables dinámicamente, centradas en el diseño de las arquitecturas altamente paralelas, modulares y regulares propuestas en esta tesis. - Un esquema de comunicaciones entre módulos reconfigurables que no introduce ningún retardo ni requiere el uso de recursos lógicos propios. - Un router flexible, capaz de resolver los conflictos de rutado asociados con el diseño de sistemas reconfigurables dinámicamente. - Un algoritmo de optimización para sistemas formados por múltiples cores escalables que optimice, mediante un algoritmo genético, los parámetros de dicho sistema. Se basa en un modelo conocido como el problema de la mochila. - Un motor de reconfiguración adaptado a los requisitos de las arquitecturas altamente regulares y modulares. Combina una alta velocidad de reconfiguración, con la capacidad de realojar módulos en tiempo real, incluyendo el soporte para la reconfiguración de regiones que ocupan menos que una región de reloj, así como la réplica de un módulo reconfigurable en múltiples posiciones del dispositivo. - Un mecanismo de inyección de fallos que, empleando el motor de reconfiguración del sistema, permite evaluar los efectos de fallos permanentes y transitorios en arquitecturas reconfigurables. - La demostración de las posibilidades de las arquitecturas propuestas en esta tesis para la implementación de sistemas de hardware evolutivos, con una alta capacidad de procesamiento de datos. - La implementación de sistemas de hardware evolutivo escalables, que son capaces de tratar con la fluctuación de la cantidad de recursos disponibles en el sistema, de una forma autónoma. - Una estrategia de procesamiento en paralelo para el deblocking filter compatible con los estándares H.264/AVC y SVC que reduce el número de ciclos de macrobloque necesarios para procesar un frame de video. - Una arquitectura dinámicamente escalable que permite la implementación de un nuevo deblocking filter, totalmente compatible con los estándares H.264/AVC y SVC, que explota el paralelismo a nivel de macrobloque. El presente documento se organiza en siete capítulos. En el primero se ofrece una introducción al marco tecnológico de esta tesis, especialmente centrado en la reconfiguración dinámica y parcial de FPGAs. También se motiva la necesidad de las arquitecturas dinámicamente escalables propuestas en esta tesis. En el capítulo 2 se describen las arquitecturas dinámicamente escalables. Dicha descripción incluye la mayor parte de las aportaciones a nivel arquitectural realizadas en esta tesis. Por su parte, el flujo de diseño adaptado a dichas arquitecturas se propone en el capítulo 3. El motor de reconfiguración se propone en el 4, mientras que el uso de dichas arquitecturas para implementar sistemas de hardware evolutivo se aborda en el 5. El deblocking filter escalable se describe en el 6, mientras que las conclusiones finales de esta tesis, así como la descripción del trabajo futuro, son abordadas en el capítulo 7. ABSTRACT The optimization of system parameters, such as power dissipation, the amount of hardware resources and the memory footprint, has been always a main concern when dealing with the design of resource-constrained embedded systems. This situation is even more demanding nowadays. Embedded systems cannot anymore be considered only as specific-purpose computers, designed for a particular functionality that remains unchanged during their lifetime. Differently, embedded systems are now required to deal with more demanding and complex functions, such as multimedia data processing and high-throughput connectivity. In addition, system operation may depend on external data, the user requirements or internal variables of the system, such as the battery life-time. All these conditions may vary at run-time, leading to adaptive scenarios. As a consequence of both the growing computational complexity and the existence of dynamic requirements, dynamic resource management techniques for embedded systems are needed. Software is inherently flexible, but it cannot meet the computing power offered by hardware solutions. Therefore, reconfigurable hardware emerges as a suitable technology to deal with the run-time variable requirements of complex embedded systems. Adaptive hardware requires the use of reconfigurable devices, where its functionality can be modified on demand. In this thesis, Field Programmable Gate Arrays (FPGAs) have been selected as the most appropriate commercial technology existing nowadays to implement adaptive hardware systems. There are different ways of exploiting reconfigurability in reconfigurable devices. Among them is dynamic and partial reconfiguration. This is a technique which consists in substituting part of the FPGA logic on demand, while the rest of the device continues working. The strategy followed in this thesis is to exploit the dynamic and partial reconfiguration of commercial FPGAs to deal with the flexibility and complexity demands of state-of-the-art embedded systems. The proposal of this thesis to deal with run-time variable system conditions is the use of spatially scalable processing hardware IP cores, which are able to adapt their functionality or performance at run-time, trading them off with the amount of logic resources they occupy in the device. This is referred to as a scalable footprint in the context of this thesis. The distinguishing characteristic of the proposed cores is that they rely on highly parallel, modular and regular architectures, arranged in one or two dimensions. These architectures can be scaled by means of the addition or removal of the composing blocks. This strategy avoids implementing a full version of the core for each possible size, with the corresponding benefits in terms of scaling and adaptation time, as well as bitstream storage memory requirements. Instead of providing specific-purpose architectures, generic architectural templates, which can be tuned to solve different problems, are proposed in this thesis. Architectures following both systolic and wavefront templates have been selected. Together with the proposed scalable architectural templates, other issues needed to ensure the proper design and operation of the scalable cores, such as the device reconfiguration control, the run-time management of the architecture and the implementation techniques have been also addressed in this thesis. With regard to the implementation of dynamically reconfigurable architectures, device dependent low-level details are addressed. Some of the aspects covered in this thesis are the area constrained routing for reconfigurable modules, or an inter-module communication strategy which does not introduce either extra delay or logic overhead. The system implementation, from the hardware description to the device configuration bitstream, has been fully automated by modifying the netlists corresponding to each of the system modules, which are previously generated using the vendor tools. This modification is therefore envisaged as a post-processing step. Based on these implementation proposals, a design tool called DREAMS (Dynamically Reconfigurable Embedded and Modular Systems) has been created, including a graphic user interface. The tool has specific features to cope with modular and regular architectures, including the support for module relocation and the inter-module communications scheme based on the symmetry of the architecture. The core of the tool is a custom router, which has been also exploited in this thesis to obtain symmetric routed nets, with the aim of enhancing the protection of critical reconfigurable circuits against side channel attacks. This is achieved by duplicating the logic with an exactly equal routing. In order to control the reconfiguration process of the FPGA, a Reconfiguration Engine suited to the specific requirements set by the proposed architectures was also proposed. Therefore, in addition to controlling the reconfiguration port, the Reconfiguration Engine has been enhanced with the online relocation ability, which allows employing a unique configuration bitstream for all the positions where the module may be placed in the device. Differently to the existing relocating solutions, which are based on bitstream parsers, the proposed approach is based on the online composition of bitstreams. This strategy allows increasing the speed of the process, while the length of partial bitstreams is also reduced. The height of the reconfigurable modules can be lower than the height of a clock region. The Reconfiguration Engine manages the merging process of the new and the existing configuration frames within each clock region. The process of scaling up and down the hardware cores also benefits from this technique. A direct link to an external memory where partial bitstreams can be stored has been also implemented. In order to accelerate the reconfiguration process, the ICAP has been overclocked over the speed reported by the manufacturer. In the case of Virtex-5, even though the maximum frequency of the ICAP is reported to be 100 MHz, valid operations at 250 MHz have been achieved, including the online relocation process. Portability of the reconfiguration solution to today's and probably, future FPGAs, has been also considered. The reconfiguration engine can be also used to inject faults in real hardware devices, and this way being able to evaluate the fault tolerance offered by the reconfigurable architectures. Faults are emulated by introducing partial bitstreams intentionally modified to provide erroneous functionality. To prove the validity and the benefits offered by the proposed architectures, two demonstration application lines have been envisaged. First, scalable architectures have been employed to develop an evolvable hardware platform with adaptability, fault tolerance and scalability properties. Second, they have been used to implement a scalable deblocking filter suited to scalable video coding. Evolvable Hardware is the use of evolutionary algorithms to design hardware in an autonomous way, exploiting the flexibility offered by reconfigurable devices. In this case, processing elements composing the architecture are selected from a presynthesized library of processing elements, according to the decisions taken by the algorithm, instead of being decided at design time. This way, the configuration of the array may change as run-time environmental conditions do, achieving autonomous control of the dynamic reconfiguration process. Thus, the self-optimization property is added to the native self-configurability of the dynamically scalable architectures. In addition, evolvable hardware adaptability inherently offers self-healing features. The proposal has proved to be self-tolerant, since it is able to self-recover from both transient and cumulative permanent faults. The proposed evolvable architecture has been used to implement noise removal image filters. Scalability has been also exploited in this application. Scalable evolvable hardware architectures allow the autonomous adaptation of the processing cores to a fluctuating amount of resources available in the system. Thus, it constitutes an example of the dynamic quality scalability tackled in this thesis. Two variants have been proposed. The first one consists in a single dynamically scalable evolvable core, and the second one contains a variable number of processing cores. Scalable video is a flexible approach for video compression, which offers scalability at different levels. Differently to non-scalable codecs, a scalable video bitstream can be decoded with different levels of quality, spatial or temporal resolutions, by discarding the undesired information. The interest in this technology has been fostered by the development of the Scalable Video Coding (SVC) standard, as an extension of H.264/AVC. In order to exploit all the flexibility offered by the standard, it is necessary to adapt the characteristics of the decoder to the requirements of each client during run-time. The use of dynamically scalable architectures is proposed in this thesis with this aim. The deblocking filter algorithm is the responsible of improving the visual perception of a reconstructed image, by smoothing blocking artifacts generated in the encoding loop. This is one of the most computationally intensive tasks of the standard, and furthermore, it is highly dependent on the selected scalability level in the decoder. Therefore, the deblocking filter has been selected as a proof of concept of the implementation of dynamically scalable architectures for video compression. The proposed architecture allows the run-time addition or removal of computational units working in parallel to change its level of parallelism, following a wavefront computational pattern. Scalable architecture is offered together with a scalable parallelization strategy at the macroblock level, such that when the size of the architecture changes, the macroblock filtering order is modified accordingly. The proposed pattern is based on the division of the macroblock processing into two independent stages, corresponding to the horizontal and vertical filtering of the blocks within the macroblock. The main contributions of this thesis are: - The use of highly parallel, modular, regular and local architectures to implement dynamically reconfigurable processing IP cores, for data intensive applications with flexibility requirements. - The use of two-dimensional mesh-type arrays as architectural templates to build dynamically reconfigurable IP cores, with a scalable footprint. The proposal consists in generic architectural templates, which can be tuned to solve different computational problems. •A design flow and a tool targeting the design of DPR systems, focused on highly parallel, modular and local architectures. - An inter-module communication strategy, which does not introduce delay or area overhead, named Virtual Borders. - A custom and flexible router to solve the routing conflicts as well as the inter-module communication problems, appearing during the design of DPR systems. - An algorithm addressing the optimization of systems composed of multiple scalable cores, which size can be decided individually, to optimize the system parameters. It is based on a model known as the multi-dimensional multi-choice Knapsack problem. - A reconfiguration engine tailored to the requirements of highly regular and modular architectures. It combines a high reconfiguration throughput with run-time module relocation capabilities, including the support for sub-clock reconfigurable regions and the replication in multiple positions. - A fault injection mechanism which takes advantage of the system reconfiguration engine, as well as the modularity of the proposed reconfigurable architectures, to evaluate the effects of transient and permanent faults in these architectures. - The demonstration of the possibilities of the architectures proposed in this thesis to implement evolvable hardware systems, while keeping a high processing throughput. - The implementation of scalable evolvable hardware systems, which are able to adapt to the fluctuation of the amount of resources available in the system, in an autonomous way. - A parallelization strategy for the H.264/AVC and SVC deblocking filter, which reduces the number of macroblock cycles needed to process the whole frame. - A dynamically scalable architecture that permits the implementation of a novel deblocking filter module, fully compliant with the H.264/AVC and SVC standards, which exploits the macroblock level parallelism of the algorithm. This document is organized in seven chapters. In the first one, an introduction to the technology framework of this thesis, specially focused on dynamic and partial reconfiguration, is provided. The need for the dynamically scalable processing architectures proposed in this work is also motivated in this chapter. In chapter 2, dynamically scalable architectures are described. Description includes most of the architectural contributions of this work. The design flow tailored to the scalable architectures, together with the DREAMs tool provided to implement them, are described in chapter 3. The reconfiguration engine is described in chapter 4. The use of the proposed scalable archtieectures to implement evolvable hardware systems is described in chapter 5, while the scalable deblocking filter is described in chapter 6. Final conclusions of this thesis, and the description of future work, are addressed in chapter 7.
Resumo:
En España las actividades agroganaderas son responsables del 11% del total de emisiones de gases de efecto invernadero. Sin embargo, estos datos únicamente contabilizan emisiones directas de CH4 (metano) y N2O (óxido nitroso), no considerando factores específicos que afectan a dichas emisiones. Resultará ineficaz tratar de reducir la huella de C asociada a las actividades agropecuarias si se aíslan del sistema agroalimentario en su conjunto. Los sistemas ecológicos con menor huella de C (carbono) son los que logran una mayor autorregeneración de su fertilidad, a través de la fijación de N, la minimización de las pérdidas de éste y otros nutrientes y la maximización del reciclado de la materia orgánica residual. Con esto se consigue reducir el uso de insumos externos, disminuir la emisión de N2O y aumentar el secuestro de C.
Resumo:
Los efectos del transporte en el cambio climático se han convertido en un motivo de preocupación en todo el mundo. El transporte representa el 41% de las emisiones de CO 2 en España, y aproximadamente el 65% de esa cifra corresponde al tráfico por carretera. Las autopistas de peaje se gestionan en la actualidad sobre la base de criterios económicos: minimizar los costes operativos y maximizar los ingresos derivados de los peajes. En este marco, el presente documento desarrolla una nueva metodología para gestionar las autopistas tomando como base un objetivo de máxima eficiencia energética. Incluye las políticas tecnológicas y las impulsadas por la demanda, que se aplican a dos casos prácticos. Este estudio arroja varias conclusiones. Los resultados indican que para reducir al máximo la huella de carbono es preciso diseñar estrategias de sostenibilidad para gestionar cada tramo de autopista. Esto significa utilizar el máximo de su capacidad según los flujos de tráfico total de automóviles y de vehículos pesados en las autopistas y también en las carreteras paralelas. Otra importante conclusión es que se podrían lograr importantes reducciones de las emisiones de gases de efecto invernadero en los tramos con peaje aplicando programas de ETC (cobro electrónico de peaje) y ORT (peaje abierto).
Resumo:
Huella de sello de placa (30 x 30 mm.) recortado en las dos hojas
Resumo:
Homenaje a Javier Carvajal
Resumo:
El siguiente Trabajo Fin de Master se divide en tres partes, siempre, alrededor de la identificación biométrica. Esta ciencia aprovecha que existen ciertas características biológicas o conductuales singulares e inalterables, por lo que pueden ser analizados y medidos para crear una huella biométrica. Estas características son difíciles de perder, transferir u olvidar y son perdurables en el tiempo. En la primera de las partes se ofrecerá una visión sobre la importancia histórica de esta ciencia, desde los primeros vestigios humanos, en la zona de Mesopotamia, pasando por los grandes innovadores y precursores de la identificación biométrica, como Bertillon, Galton, Vucetich, etc. auspiciados por una finalidad mayoritariamente criminalística o policiaca, hasta la gran revolución a finales del siglo pasado, en las que técnicas que parecían ciencia ficción se hicieron realidad. En el siguiente apartado se analizaran las 6 principales técnicas que se usan actualmente, realizando una mirada más profunda en los principios naturales, fisiológicos y físicos sobre los que se basan se expondrán las tendencias futuras sobre las que trabajara la industria para el desarrollo de técnicas más seguras, menos invasivas y más transparentes para los usuarios finales. Estas como ha pasado a lo largo de la historia sonaran increíbles, pero una vez más la raza humana conseguirá materializarlas e introducirlas en su día a día. Para finalizar y después de este estudio en detalle, se intentará realizar una comparación y análisis basados en las más importantes características para las técnicas biométricas, fiabilidad, facilidad, usurpación, aceptación y estabilidad, etc. ABSTRACT The following Master's Thesis is divided into three parts, always, about biometric identification. This science fail that certain biological or behavioural characteristics unique and unchangeable, so it can be analysed and measured to create a biometric fingerprint. These features are hard to miss, or forget to transfer and are enduring in time. In the first part a vision of the historical importance of this science are offered, from the earliest human remains in the area of Mesopotamia, to the great innovators and pioneers of biometric identification, such as Bertillon, Galton, Vucetich, etc. . sponsored a largely forensic or detective purpose, until the great revolution in the late nineteenth century, in which techniques that seemed science fiction became reality. The following section will analyse the 6 main techniques currently in use, making a deeper look at the natural, physiological and physical principles on which future trends are based on the industry to work for the development of techniques will be discussed more safer, less invasive and more transparent to end users. Such as has happened throughout history sounded amazing, but once again the human race get materialize and introduce them in their day to day. Finally and after the study in detail, and try to make a comparison based on the most important features for biometric technologies, reliability, ease, alienation, acceptance and stability analysis etc..
Resumo:
El objetivo de la presente investigación es el desarrollo de un modelo de cálculo rápido, eficiente y preciso, para la estimación de los costes finales de construcción, en las fases preliminares del proyecto arquitectónico. Se trata de una herramienta a utilizar durante el proceso de elaboración de estudios previos, anteproyecto y proyecto básico, no siendo por tanto preciso para calcular el “predimensionado de costes” disponer de la total definición grafica y literal del proyecto. Se parte de la hipótesis de que en la aplicación práctica del modelo no se producirán desviaciones superiores al 10 % sobre el coste final de la obra proyectada. Para ello se formulan en el modelo de predimensionado cinco niveles de estimación de costes, de menor a mayor definición conceptual y gráfica del proyecto arquitectónico. Los cinco niveles de cálculo son: dos que toman como referencia los valores “exógenos” de venta de las viviendas (promoción inicial y promoción básica) y tres basados en cálculos de costes “endógenos” de la obra proyectada (estudios previos, anteproyecto y proyecto básico). El primer nivel de estimación de carácter “exógeno” (nivel .1), se calcula en base a la valoración de mercado de la promoción inmobiliaria y a su porcentaje de repercusión de suelo sobre el valor de venta de las viviendas. El quinto nivel de valoración, también de carácter “exógeno” (nivel .5), se calcula a partir del contraste entre el valor externo básico de mercado, los costes de construcción y los gastos de promoción estimados de la obra proyectada. Este contraste entre la “repercusión del coste de construcción” y el valor de mercado, supone una innovación respecto a los modelos de predimensionado de costes existentes, como proceso metodológico de verificación y validación extrínseca, de la precisión y validez de las estimaciones resultantes de la aplicación práctica del modelo, que se denomina Pcr.5n (Predimensionado costes de referencia con .5niveles de cálculo según fase de definición proyectual / ideación arquitectónica). Los otros tres niveles de predimensionado de costes de construcción “endógenos”, se estiman mediante cálculos analíticos internos por unidades de obra y cálculos sintéticos por sistemas constructivos y espacios funcionales, lo que se lleva a cabo en las etapas iniciales del proyecto correspondientes a estudios previos (nivel .2), anteproyecto (nivel .3) y proyecto básico (nivel .4). Estos cálculos teóricos internos son finalmente evaluados y validados mediante la aplicación práctica del modelo en obras de edificación residencial, de las que se conocen sus costes reales de liquidación final de obra. Según va evolucionando y se incrementa el nivel de definición y desarrollo del proyecto, desde los estudios previos hasta el proyecto básico, el cálculo se va perfeccionando en su nivel de eficiencia y precisión de la estimación, según la metodología aplicada: [aproximaciones sucesivas en intervalos finitos], siendo la hipótesis básica como anteriormente se ha avanzado, lograr una desviación máxima de una décima parte en el cálculo estimativo del predimensionado del coste real de obra. El cálculo del coste de ejecución material de la obra, se desarrolla en base a parámetros cúbicos funcionales “tridimensionales” del espacio proyectado y parámetros métricos constructivos “bidimensionales” de la envolvente exterior de cubierta/fachada y de la huella del edificio sobre el terreno. Los costes funcionales y constructivos se ponderan en cada fase del proceso de cálculo con sus parámetros “temáticos/específicos” de gestión (Pg), proyecto (Pp) y ejecución (Pe) de la concreta obra presupuestada, para finalmente estimar el coste de construcción por contrata, como resultado de incrementar al coste de ejecución material el porcentaje correspondiente al parámetro temático/especifico de la obra proyectada. El modelo de predimensionado de costes de construcción Pcr.5n, será una herramienta de gran interés y utilidad en el ámbito profesional, para la estimación del coste correspondiente al Proyecto Básico previsto en el marco técnico y legal de aplicación. Según el Anejo I del Código Técnico de la Edificación (CTE), es de obligado cumplimiento que el proyecto básico contenga una “Valoración aproximada de la ejecución material de la obra proyectada por capítulos”, es decir , que el Proyecto Básico ha de contener al menos un “presupuesto aproximado”, por capítulos, oficios ó tecnologías. El referido cálculo aproximado del presupuesto en el Proyecto Básico, necesariamente se ha de realizar mediante la técnica del predimensionado de costes, dado que en esta fase del proyecto arquitectónico aún no se dispone de cálculos de estructura, planos de acondicionamiento e instalaciones, ni de la resolución constructiva de la envolvente, por cuanto no se han desarrollado las especificaciones propias del posterior proyecto de ejecución. Esta estimación aproximada del coste de la obra, es sencilla de calcular mediante la aplicación práctica del modelo desarrollado, y ello tanto para estudiantes como para profesionales del sector de la construcción. Como se contiene y justifica en el presente trabajo, la aplicación práctica del modelo para el cálculo de costes en las fases preliminares del proyecto, es rápida y certera, siendo de sencilla aplicación tanto en vivienda unifamiliar (aisladas y pareadas), como en viviendas colectivas (bloques y manzanas). También, el modelo es de aplicación en el ámbito de la valoración inmobiliaria, tasaciones, análisis de viabilidad económica de promociones inmobiliarias, estimación de costes de obras terminadas y en general, cuando no se dispone del proyecto de ejecución y sea preciso calcular los costes de construcción de las obras proyectadas. Además, el modelo puede ser de aplicación para el chequeo de presupuestos calculados por el método analítico tradicional (estado de mediciones pormenorizadas por sus precios unitarios y costes descompuestos), tanto en obras de iniciativa privada como en obras promovidas por las Administraciones Públicas. Por último, como líneas abiertas a futuras investigaciones, el modelo de “predimensionado costes de referencia 5 niveles de cálculo”, se podría adaptar y aplicar para otros usos y tipologías diferentes a la residencial, como edificios de equipamientos y dotaciones públicas, valoración de edificios históricos, obras de urbanización interior y exterior de parcela, proyectos de parques y jardines, etc….. Estas lineas de investigación suponen trabajos paralelos al aquí desarrollado, y que a modo de avance parcial se recogen en las comunicaciones presentadas en los Congresos internacionales Scieconf/Junio 2013, Rics‐Cobra/Septiembre 2013 y en el IV Congreso nacional de patología en la edificación‐Ucam/Abril 2014. ABSTRACT The aim of this research is to develop a fast, efficient and accurate calculation model to estimate the final costs of construction, during the preliminary stages of the architectural project. It is a tool to be used during the preliminary study process, drafting and basic project. It is not therefore necessary to have the exact, graphic definition of the project in order to be able to calculate the cost‐scaling. It is assumed that no deviation 10% higher than the final cost of the projected work will occur during the implementation. To that purpose five levels of cost estimation are formulated in the scaling model, from a lower to a higher conceptual and graphic definition of the architectural project. The five calculation levels are: two that take as point of reference the ”exogenous” values of house sales (initial development and basic development), and three based on calculation of endogenous costs (preliminary study, drafting and basic project). The first ”exogenous” estimation level (level.1) is calculated over the market valuation of real estate development and the proportion the cost of land has over the value of the houses. The fifth level of valuation, also an ”exogenous” one (level.5) is calculated from the contrast between the basic external market value, the construction costs, and the estimated development costs of the projected work. This contrast between the ”repercussions of construction costs” and the market value is an innovation regarding the existing cost‐scaling models, as a methodological process of extrinsic verification and validation, of the accuracy and validity of the estimations obtained from the implementation of the model, which is called Pcr.5n (reference cost‐scaling with .5calculation levels according to the stage of project definition/ architectural conceptualization) The other three levels of “endogenous” construction cost‐scaling are estimated from internal analytical calculations by project units and synthetic calculations by construction systems and functional spaces. This is performed during the initial stages of the project corresponding to preliminary study process (level.2), drafting (level.3) and basic project (level.4). These theoretical internal calculations are finally evaluated and validated via implementation of the model in residential buildings, whose real costs on final payment of the works are known. As the level of definition and development of the project evolves, from preliminary study to basic project, the calculation improves in its level of efficiency and estimation accuracy, following the applied methodology: [successive approximations at finite intervals]. The basic hypothesis as above has been made, achieving a maximum deviation of one tenth, in the estimated calculation of the true cost of predimensioning work. The cost calculation for material execution of the works is developed from functional “three‐dimensional” cubic parameters for the planned space and constructive “two dimensional” metric parameters for the surface that envelopes around the facade and the building’s footprint on the plot. The functional and building costs are analyzed at every stage of the process of calculation with “thematic/specific” parameters of management (Pg), project (Pp) and execution (Pe) of the estimated work in question, and finally the cost of contractual construction is estimated, as a consequence of increasing the cost of material execution with the percentage pertaining to the thematic/specific parameter of the projected work. The construction cost‐scaling Pcr.5n model will be a useful tool of great interest in the professional field to estimate the cost of the Basic Project as prescribed in the technical and legal framework of application. According to the appendix of the Technical Building Code (CTE), it is compulsory that the basic project contains an “approximate valuation of the material execution of the work, projected by chapters”, that is, that the basic project must contain at least an “approximate estimate” by chapter, trade or technology. This approximate estimate in the Basic Project is to be performed through the cost‐scaling technique, given that structural calculations, reconditioning plans and definitive contruction details of the envelope are still not available at this stage of the architectural project, insofar as specifications pertaining to the later project have not yet been developed. This approximate estimate of the cost of the works is easy to calculate through the implementation of the given model, both for students and professionals of the building sector. As explained and justified in this work, the implementation of the model for cost‐scaling during the preliminary stage is fast and accurate, as well as easy to apply both in single‐family houses (detached and semi‐detached) and collective housing (blocks). The model can also be applied in the field of the real‐estate valuation, official appraisal, analysis of the economic viability of real estate developments, estimate of the cost of finished projects and, generally, when an implementation project is not available and it is necessary to calculate the building costs of the projected works. The model can also be applied to check estimates calculated by the traditional analytical method (state of measurements broken down into price per unit cost details), both in private works and those promoted by Public Authorities. Finally, as potential lines for future research, the “five levels of calculation cost‐scaling model”, could be adapted and applied to purposes and typologies other than the residential one, such as service buildings and public facilities, valuation of historical buildings, interior and exterior development works, park and garden planning, etc… These lines of investigation are parallel to this one and, by way of a preview, can be found in the dissertations given in the International Congresses Scieconf/June 2013, Rics‐Cobra/September 2013 and in the IV Congress on building pathology ‐Ucam/April 2014.
Resumo:
Una gestión más eficiente y equitativa del agua a escala de cuenca no se puede centrar exclusivamente en el recurso hídrico en sí, sino también en otras políticas y disciplinas científicas. Existe un consenso creciente de que, además de la consideración de las cambiantes condiciones climáticas, es necesaria una integración de ámbitos de investigación tales como la agronomía, planificación del territorio y ciencias políticas y económicas a fin de satisfacer de manera sostenible las demandas de agua por parte de la sociedad y del medio natural. La Política Agrícola Común (PAC) es el principal motor de cambio en las tendencias de paisajes rurales y sistemas agrícolas, pero el deterioro del medio ambiente es ahora una de las principales preocupaciones. Uno de los cambios más relevantes se ha producido con la expansión e intensificación del olivar en España, principalmente con nuevas zonas de regadío o la conversión de olivares de secano a sistemas en regadío. Por otra parte, el cambio de las condiciones climáticas podría ejercer un papel importante en las tendencias negativas de las aportaciones a los ríos, pero no queda claro el papel que podrían estar jugando los cambios de uso de suelo y cobertura vegetal sobre las tendencias negativas de caudal observadas. Esta tesis tiene como objetivo mejorar el conocimiento de los efectos de la producción agrícola, política agraria y cambios de uso de suelo y cobertura vegetal sobre las condiciones de calidad del agua, respuesta hidrológica y apropiación del agua por parte de la sociedad. En primer lugar, el estudio determina las tendencias existentes de nitratos y sólidos en suspensión en las aguas superficiales de la cuenca del río Guadalquivir durante el periodo de 1998 a 2009. Desde una perspectiva de política agraria, la investigación trata de evaluar mediante un análisis de datos de panel las principales variables, incluyendo la reforma de la PAC de 2003, que están teniendo una influencia en ambos indicadores de calidad. En segundo lugar, la apropiación del agua y el nivel de contaminación por nitratos debido a la producción del aceite de oliva en España se determinan con una evaluación de la huella hídrica (HH), teniendo en cuenta una variabilidad espacial y temporal a largo de las provincias españolas y entre 1997 y 2008. Por último, la tesis analiza los efectos de los cambios de uso de suelo y cobertura vegetal sobre las tendencias negativas observadas en la zona alta del Turia, cabecera de la cuenca del río Júcar, durante el periodo 1973-2008 mediante una modelización ecohidrológica. En la cuenca del Guadalquivir cerca del 20% de las estaciones de monitoreo muestran tendencias significativas, lineales o cuadráticas, para cada indicador de calidad de agua. La mayoría de las tendencias significativas en nitratos están aumentando, y la mayoría de tendencias cuadráticas muestran un patrón en forma de U. Los modelos de regresión de datos de panel muestran que las variables más importantes que empeoran ambos indicadores de calidad del agua son la intensificación de biomasa y las exportaciones de ambos indicadores de calidad procedentes de aguas arriba. En regiones en las que el abandono agrícola y/o desintensificación han tenido lugar han mejorado las condiciones de calidad del agua. Para los nitratos, el desacoplamiento de las subvenciones a la agricultura y la reducción de la cuantía de las subvenciones a tierras de regadío subyacen en la reducción observada de la concentración de nitratos. Las medidas de modernización de regadíos y el establecimiento de zonas vulnerables a nitratos reducen la concentración en subcuencas que muestran una tendencia creciente de nitratos. Sin embargo, el efecto de las exportaciones de nitratos procedente de aguas arriba, la intensificación de la biomasa y los precios de los cultivos presentan un mayor peso, explicando la tendencia creciente observada de nitratos. Para los sólidos en suspensión, no queda de forma evidente si el proceso de desacoplamiento ha influido negativa o positivamente. Sin embargo, los mayores valores de las ayudas agrarias aún ligadas a la producción, en particular en zonas de regadío, conllevan un aumento de las tasas de erosión. Aunque la cuenca del Guadalquivir ha aumentado la producción agrícola y la eficiencia del uso del agua, el problema de las altas tasas de erosión aún no ha sido mitigado adecuadamente. El estudio de la huella hídrica (HH) revela que en 1 L de aceite de oliva español más del 99,5% de la HH está relacionado con la producción de la aceituna, mientras que menos del 0,5% se debe a otros componentes, es decir, a la botella, tapón y etiqueta. Durante el período estudiado, la HH verde en secano y en regadío representa alrededor del 72% y 12%, respectivamente, del total de la HH. Las HHs azul y gris representan 6% y 10%, respectivamente. La producción de aceitunas se concentra en regiones con una HH menor por unidad de producto. La producción de aceite de oliva ha aumentado su productividad del agua durante 1997-2008, incentivado por los crecientes precios del aceite, como también lo ha hecho la cantidad de exportaciones de agua virtual. De hecho, las mayores zonas productoras presentan una eficiencia alta del uso y de productividad del agua, así como un menor potencial de contaminación por nitratos. Pero en estas zonas se ve a la vez reflejado un aumento de presión sobre los recursos hídricos locales. El aumento de extracciones de agua subterránea relacionadas con las exportaciones de aceite de oliva podría añadir una mayor presión a la ya estresada cuenca del Guadalquivir, mostrando la necesidad de equilibrar las fuerzas del mercado con los recursos locales disponibles. Los cambios de uso de suelo y cobertura vegetal juegan un papel importante en el balance del agua de la cuenca alta del Turia, pero no son el principal motor que sustenta la reducción observada de caudal. El aumento de la temperatura es el principal factor que explica las mayores tasas de evapotranspiración y la reducción de caudales. Sin embargo, los cambios de uso de suelo y el cambio climático han tenido un efecto compensatorio en la respuesta hidrológica. Por un lado, el caudal se ha visto afectado negativamente por el aumento de la temperatura, mientras que los cambios de uso de suelo y cobertura vegetal han compensado positivamente con una reducción de las tasas de evapotranspiración, gracias a los procesos de disminución de la densidad de matorral y de degradación forestal. El estudio proporciona una visión que fortalece la interdisciplinariedad entre la planificación hidrológica y territorial, destacando la necesidad de incluir las implicaciones de los cambios de uso de suelo y cobertura vegetal en futuros planes hidrológicos. Estos hallazgos son valiosos para la gestión de la cuenca del río Turia, y el enfoque empleado es útil para la determinación del peso de los cambios de uso de suelo y cobertura vegetal en la respuesta hidrológica en otras regiones. ABSTRACT Achieving a more efficient and equitable water management at catchment scale does not only rely on the water resource itself, but also on other policies and scientific knowledge. There is a growing consensus that, in addition to consideration of changing climate conditions, integration with research areas such as agronomy, land use planning and economics and political science is required to meet sustainably the societal and environmental water demands. The Common Agricultural Policy (CAP) is a main driver for trends in rural landscapes and agricultural systems, but environmental deterioration is now a principal concern. One of the most relevant changes has occurred with the expansion and intensification of olive orchards in Spain, taking place mainly with new irrigated areas or with the conversion from rainfed to irrigated systems. Moreover, changing climate conditions might exert a major role on water yield trends, but it remains unclear the role that ongoing land use and land cover changes (LULCC) might have on observed river flow trends. This thesis aims to improve the understanding of the effects of agricultural production, policies and LULCC on water quality conditions, hydrological response and human water appropriation. Firstly, the study determines the existing trends for nitrates and suspended solids in the Guadalquivir river basin’s surface waters (south Spain) during the period from 1998 to 2009. From a policy perspective, the research tries to assess with panel data analysis the main drivers, including the 2003 CAP reform, which are having an influence on both water quality indicators. Secondly, water appropriation and nitrate pollution level originating from the production of olive oil in Spain is determined with a water footprint (WF) assessment, considering a spatial temporal variability across the Spanish provinces and from 1997 to 2008 years. Finally, the thesis analyzes the effects of the LULCC on the observed negative trends over the period 1973-2008 in the Upper Turia basin, headwaters of the Júcar river demarcation (east Spain), with ecohydrological modeling. In the Guadalquivir river basin about 20% of monitoring stations show significant trends, linear or quadratic, for each water quality indicator. Most significant trends of nitrates are augmenting than decreasing, and most significant quadratic terms of both indicators exhibit U-shaped patterns. The panel data models show that the most important drivers that are worsening nitrates and suspended solids in the basin are biomass intensification and exports of both water quality indicators from upland regions. In regions that agricultural abandonment and/or de-intensification have taken place the water quality conditions have improved. For nitrates, the decoupling of agricultural subsidies and the reduction of the amount of subsidies to irrigated land underlie the observed reduction of nitrates concentration. Measures of irrigation modernization and establishment of vulnerable zones to nitrates ameliorate the concentration of nitrates in subbasins showing an increasing trend. However, the effect of nitrates load from upland areas, intensification of biomass and crop prices present a greater weight leading to the final increasing trend in this subbasins group, where annual crops dominate. For suspended solids, there is no clear evidence that decoupling process have influenced negatively or positively. Nevertheless, greater values of subsidies still linked to production, particularly in irrigated regions, lead to increasing erosion rates. Although agricultural production has augmented in the basin and water efficiency in the agricultural sector has improved, the issue of high erosion rates has not yet been properly faced. The water footprint (WF) assessment reveals that for 1 L Spanish olive oil more than 99.5% of the WF is related to the olive fruit production, whereas less than 0.5% is due to other components i.e. bottle, cap and label. Over the studied period, the green WF in rainfed and irrigated systems represents about 72% and 12%, respectively, of the total WF. Blue and grey WFs represent 6% and 10%, respectively. The olive production is concentrated in regions with the smallest WF per unit of product. The olive oil production has increased its apparent water productivity from 1997 to 2008 incentivized by growing trade prices, but also did the amount of virtual water exports. In fact, the largest producing areas present high water use efficiency per product and apparent water productivity as well as less nitrates pollution potential, but this enhances the pressure on the available water resources. Increasing groundwater abstractions related to olive oil exports may add further pressure to the already stressed Guadalquivir basin. This shows the need to balance the market forces with the available local resources. Concerning the effects of LULCC on the Upper Turia basin’s streamflow, LULCC play a significant role on the water balance, but it is not the main driver underpinning the observed reduction on Turia's streamflow. Increasing mean temperature is the main factor supporting larger evapotranspiration rates and streamflow reduction. In fact, LULCC and climate change have had an offsetting effect on the streamflow generation during the study period. While streamflow has been negatively affected by increasing temperature, ongoing LULCC have positively compensated with reduced evapotranspiration rates, thanks to mainly shrubland clearing and forest degradation processes. The research provides insight for strengthening the interdisciplinarity between hydrological and spatial planning, highlighting the need to include the implications of LULCC in future hydrological plans. These findings are valuable for the management of the Turia river basin, as well as a useful approach for the determination of the weight of LULCC on the hydrological response in other regions.
Resumo:
Huella recortada.-Cartela en la parte inferior
Resumo:
Huella recortada
Resumo:
Huella de la imagen recortada
Resumo:
En la parte inferior el escudo de la ciudad de Segorbe y la inscripción: "1. Convento de Franciscos. 2. Convento de Capuchinos 3. Monasterio de Geronimos ...".
Resumo:
Estampada en la misma hoja con el grabado de "Vista de Almenara, tomada de Murviedro" y con huella de plancha común (53'5 x 31'5 cm)
Resumo:
Estampada en la misma hoja con dos grabados del Lago de Almenara y con huella de plancha común (53'5 x 31'5 cm)
Resumo:
La Capilla de Sogn Benedetg en Sumvitg, parte de la obra temprana de Peter Zumthor, condensa aspectos de sus ideas, de su forma de proyectar y construir, que aún hoy siguen vigentes en él. Los recuerdos de infancia cimientan su enfoque de la arquitectura, en el que trata de reunir trazas de la vida cotidiana, sensible al lugar y utilizando materiales tratados de un modo preciso que bajo la luz adquieren su presencia. Con un lenguaje táctil y tectónico, desde una aproximación fenomenológica, persigue compartir una experiencia multisensorial, englobando percepciones complementarias que trascienden la geometría visual. Como Kahn, se apoya en el pensamiento de Heidegger, y se inspira en la pequeña cabaña que el filósofo habitaba en la Selva Negra, así como en la arquitectura religiosa de Rudolf Schwarz, cuya huella puede apreciarse tanto en el edificio como en los objetos que se encuentran en él. La tensión que genera entre interior y exterior mantiene despiertos los sentidos del visitante, a la vez que las características de la capilla enlazan con un regionalismo integrador que no se aparta de las formas abstractas contemporáneas. : Sogn Benedetg Chapel in Sumvitg, part of the early work of Peter Zumthor, condenses aspects of his ideas and his way of designing and building, which still remain valid today. Remembrances of childhood lay the foundation for his focus to architecture, which involves the collection of daily life traces, sensitive to the place and using materials treated in a precise manner, acquiring their presence under the light. With a tactile and tectonic language, from a phenomenological approach, he seeks to share a multi-sensory experience, encompassing complementary perceptions that transcend the visual geometry. As Kahn does, he relies on Heidegger?s thinking and is inspired by the little hut that the philosopher inhabited in the Black Forest, as well as by Rudolf Schwarz?s religious architecture, whose imprint can be appreciated in both the building and the objects encountered within it. The tension generated between interior and exterior keeps awake the senses of the visitor, while the characteristics of the chapel connect with an integrative regionalism that does not exclude contemporary abstract forms.